Transición Estructural .NET

General => The Big Picture => Mensaje iniciado por: Cadavre Exquis en Enero 04, 2021, 18:18:14 pm

Título: STEM
Publicado por: Cadavre Exquis en Enero 04, 2021, 18:18:14 pm
Por aquello de que comenzamos una nueva década del siglo xxi en la que tiene pinta que los avances científicos y tecnológicos de todo tipo se van a ir sucediendo a una velocidad vertiginosa, me he animado a crear un nuevo hilo en el que postear aquellas noticias relacionadas con STEM (https://en.wikipedia.org/wiki/Science,_technology,_engineering,_and_mathematics) (Science, technology, engineering, and mathematics)

En este hilo deberían tener cabida todas aquellas noticias relacionadas con avances: científicos, tencnológicos, en ingeniería y en matemáticas que no encajen en otros hilos más específicos como puedan ser el de Coches eléctricos (https://www.transicionestructural.net/index.php?topic=347) o en otros subforeos como el de La energía (https://www.transicionestructural.net/index.php?board=9.0).

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 04, 2021, 18:18:54 pm
Aunque se trate de una noticia del año pasado (y, por tanto, de la década anterior) para ir abriendo boca les dejo con uno de los grandes avances de 2020 que ha sido, sin duda, AlphaFold 2 una IA desarrollada por DeepMind (https://en.wikipedia.org/wiki/DeepMind) que ha logrado resolver un problema que llevaba de cabeza a los investigadores desde hace 50 años y en el que los avances, hasta ahora, habían sido muy lentos y penosos.

En palabras del profesor John Moult, uno de los científicos que ha dedicado una gran parte de su vida a resolver el problema y que partició en la creación del concurso CASP (https://en.wikipedia.org/wiki/CASP) (Critical Assessment of protein Structure Prediction) con el fin de espolear a la comunidad científica para resolver el problema:

Citar
We have been stuck on this one problem – how do proteins fold up – for nearly 50 years. To see DeepMind produce a solution for this, having worked personally on this problem for so long and after so many stops and starts, wondering if we’d ever get there, is a very special moment.

Les dejo con la entrada en el blog de DeepMind en el que explican por encima el logro:

Citar
AlphaFold: a solution to a 50-year-old grand challenge in biology (https://deepmind.com/blog/article/alphafold-a-solution-to-a-50-year-old-grand-challenge-in-biology)
AUTHORS: The AlphaFold team | 30 NOV 2020

(https://i.imgur.com/ehenS2o.jpg)

Proteins are essential to life, supporting practically all its functions. They are large complex molecules, made up of chains of amino acids, and what a protein does largely depends on its unique 3D structure (https://www.youtube.com/watch?v=wvTv8TqWC48). Figuring out what shapes proteins fold into is known as the “protein folding problem (https://en.wikipedia.org/wiki/Protein_folding)”, and has stood as a grand challenge in biology for the past 50 years. In a major scientific advance, the latest version of our AI system AlphaFold (https://deepmind.com/research/case-studies/alphafold) has been recognised as a solution to this grand challenge by the organisers of the biennial Critical Assessment of protein Structure Prediction (CASP (https://predictioncenter.org/)). This breakthrough demonstrates the impact AI can have on scientific discovery and its potential to dramatically accelerate progress in some of the most fundamental fields that explain and shape our world.

[...]

Y un par de vídeos de dos youtubers españoles que creo que ayudan a entender la importancia del avance desde dos puntos de vista:

Desde el de la biología

(https://i.imgur.com/ry75CnB.jpg) (https://www.youtube.com/watch?v=Kp9oMygMPIQ)
INTELIGENCIA ARTIFICIAL predice el PLEGAMIENTO de PROTEÍNAS! ft. @Dot CSV (https://www.youtube.com/watch?v=Kp9oMygMPIQ¡)

Desde el del Machine Learning

(https://i.imgur.com/p1vT9Yc.jpg) (https://www.youtube.com/watch?v=Uz7ucmqjZ08)
La Revolución de la INTELIGENCIA ARTIFICIAL en BIOMEDICINA! (AlphaFold2) | Feat. @La Hiperactina (https://www.youtube.com/watch?v=Uz7ucmqjZ08)

Saludos.
Título: Re:STEM
Publicado por: Maloserá en Enero 04, 2021, 18:48:14 pm
Buena idea. Dejo una lista de los artículos del último especial trimestral de tecnología de The Economist, y los artículos de tecnología del último semanal Si hay interés por alguno, dime cual/es y los copio.

Del especial trimestral
Reaching into other worlds / Virtual realities
TECHNOLOGY QUARTERLY - OCT 3RD 2020

Virtual realities: Computer-generated realities are becoming ubiquitous
Simulation: Virtual environments are being used everywhere
Hardware: Headset technology is cheaper and better than ever
Health care: Health care is already benefiting from VR
Brain scan: A novelist’s vision of the virtual world has inspired an industry
The future: The Metaverse is coming

Del último semanal
Science & technology

Covid-19: Variations on a theme
Toxicology: Double indemnity
Recycling: From Clochemerle to a compost heap
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 04, 2021, 19:32:28 pm
Buena idea. Dejo una lista de los artículos del último especial trimestral de tecnología de The Economist, y los artículos de tecnología del último semanal Si hay interés por alguno, dime cual/es y los copio.
Gracias Maloserá.

Pues al final es lo de siempre, todos son interesantes porque la Transición Estructural va a estar indisolublemente ligada a los cambios tecnológicos.

La VR (Virtual Reality) y la AR (Augmented Reality) van a ser, desde luego, tecnologías que van a revolucionar muchos campos (aparte, obviamente, de el del ocio).

Todos los recursos que se está empleando en este momento en el estudio científico del funcionamiento del cerebro están dando frutos muy interesantes ya mismo (aquí se aprecia perfectamente como se produce una retroalimentación entre el campo de la inteligencia artificial y el de la neurociencia y como los avances que se producen en cada uno de los campos permite avanzar al otro).

De hecho, hace unos meses la gente de Muy Interesante publicó un especial sobre el cerebro estupendo:

(https://i.imgur.com/orfLrLq.jpg)
Muy Interesante | Maravillas del cerebro núm. 2 (https://suscripciones.zinetmedia.es/mz/divulgacion/muy-interesante/muyedcoleccionista-2-cerebro)

Yo creo que las noticias relacionadas con el COVID-19 ahora mismo encajarían mejor en el hilo que se creó específicamente para ella (https://www.transicionestructural.net/index.php?topic=2505) a finales de enero de 2020.

Sobre la relacionada con el reciclaje, viendo el impulso que se va a dar al Green New Deal quizás en un futuro deban ir a un hilo aparte, por ahora supongo que encajarían bien en este hilo.

En resumen, que cada uno traiga aquellas noticias relacionadas con STEM que piense que pueden aportar al resto (que, al final, es el espíritu que mueve a este foro).

Si he creado el hilo ha sido por evitar ensuciar el hilo de PPCC  a pesar de que, como comentaba antes, creo que los avances tecnológicos van a ser clave en la transición de modelo en la, seamos más o menos conscientes o creamos más o menos, estamos ya metidos hasta el cuello.

Saludos.
Título: Re:STEM
Publicado por: saturno en Enero 04, 2021, 19:50:58 pm
Cita de: WolfgangK post_id=2489243 time=1609594503 user_id=113071
https://probml.github.io/pml-book/book1.html (https://probml.github.io/pml-book/book1.html)
Probabilistic Machine Learning: An Introduction



XGracias (http://www.bulle-immobiliere.org/forum/viewtopic.php?p=2489243#p2489243)
Título: Re:STEM
Publicado por: Maloserá en Enero 04, 2021, 21:05:43 pm
Resulta que un especial de tecnologíá lleva a otro y así sucesivamente. Voy seleccionando por orden semialeatorio, y así vamos leyendo lo que ha ído publicando The Economist en dosis manejables. A mí me viene bárbaro y así me obligo a leerlos. Iré subiendo algo cada semana. Espero que los artículos de The Economist complementen los otros más científico-puros, porque tienen ese interés en aplicación y repercusión económica en la cabeza cuando los escriben.

Empiezo por AI y sus limitaciones, artículo de Junio de 2020.

https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in (https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in)

An understanding of AI’s limitations is starting to sink in
After years of hype, many people feel AI has failed to deliver, says Tim Cross


It will be as if the world had created a second China, made not of billions of people and millions of factories, but of algorithms and humming computers. pwc, a professional-services firm, predicts that artificial intelligence (ai) will add $16trn to the global economy by 2030. The total of all activity—from banks and biotech to shops and construction—in the world’s second-largest economy was just $13trn in 2018.

pwc’s claim is no outlier. Rival prognosticators at McKinsey put the figure at $13trn. Others go for qualitative drama, rather than quantitative. Sundar Pichai, Google’s boss, has described developments in ai as “more profound than fire or electricity”. Other forecasts see similarly large changes, but less happy ones. Clever computers capable of doing the jobs of radiologists, lorry drivers or warehouse workers might cause a wave of unemployment.

Yet lately doubts have been creeping in about whether today’s ai technology is really as world-changing as it seems. It is running up against limits of one kind or another, and has failed to deliver on some of its proponents’ more grandiose promises.

There is no question that ai—or, to be precise, machine learning, one of its sub-fields—has made much progress. Computers have become dramatically better at many things they previously struggled with. The excitement began to build in academia in the early 2010s, when new machine-learning techniques led to rapid improvements in tasks such as recognising pictures and manipulating language. From there it spread to business, starting with the internet giants. With vast computing resources and oceans of data, they were well placed to adopt the technology. Modern ai techniques now power search engines and voice assistants, suggest email replies, power the facial-recognition systems that unlock smartphones and police national borders, and underpin the algorithms that try to identify unwelcome posts on social media.

Perhaps the highest-profile display of the technology’s potential came in 2016, when a system built by DeepMind, a London-based ai firm owned by Alphabet, Google’s corporate parent, beat one of the world’s best players at Go, an ancient Asian board game. The match was watched by tens of millions; the breakthrough came years, even decades, earlier than ai gurus had expected.

As Mr Pichai’s comparison with electricity and fire suggests, machine learning is a general-purpose technology—one capable of affecting entire economies. It excels at recognising patterns in data, and that is useful everywhere. Ornithologists use it to classify birdsong; astronomers to hunt for planets in glimmers of starlight; banks to assess credit risk and prevent fraud. In the Netherlands, the authorities use it to monitor social-welfare payments. In China ai-powered facial recognition lets customers buy groceries—and helps run the repressive mass-surveillance system the country has built in Xinjiang, a Muslim-majority region.

(https://www.economist.com/img/b/1000/593/90/sites/default/files/images/print-edition/20200613_TQC622.png)

ai’s heralds say further transformations are still to come, for better and for worse. In 2016 Geoffrey Hinton, a computer scientist who has made fundamental contributions to modern ai, remarked that “it’s quite obvious that we should stop training radiologists,” on the grounds that computers will soon be able to do everything they do, only cheaper and faster. Developers of self-driving cars, meanwhile, predict that robotaxis will revolutionise transport. Eric Schmidt, a former chairman of Google (and a former board member of The Economist’s parent company) hopes that ai could accelerate research, helping human scientists keep up with a deluge of papers and data.

In January a group of researchers published a paper in Cell describing an ai system that had predicted antibacterial function from molecular structure. Of 100 candidate molecules selected by the system for further analysis, one proved to be a potent new antibiotic. The covid-19 pandemic has thrust such medical applications firmly into the spotlight. An ai firm called BlueDot claims it spotted signs of a novel virus in reports from Chinese hospitals as early as December. Researchers have been scrambling to try to apply ai to everything from drug discovery to interpreting medical scans and predicting how the virus might evolve.

Dude, where’s my self-driving car?
This is not the first wave of ai-related excitement (see timeline in next article). The field began in the mid-1950s when researchers hoped that building human-level intelligence would take a few years—a couple of decades at most. That early optimism had fizzled by the 1970s. A second wave began in the 1980s. Once again the field’s grandest promises went unmet. As reality replaced the hype, the booms gave way to painful busts known as “ai winters”. Research funding dried up, and the field’s reputation suffered.

Many of the grandest claims made about AI have once again failed to become reality

Modern ai technology has been far more successful. Billions of people use it every day, mostly without noticing, inside their smartphones and internet services. Yet despite this success, the fact remains that many of the grandest claims made about ai have once again failed to become reality, and confidence is wavering as researchers start to wonder whether the technology has hit a wall. Self-driving cars have become more capable, but remain perpetually on the cusp of being safe enough to deploy on everyday streets. Efforts to incorporate ai into medical diagnosis are, similarly, taking longer than expected: despite Dr Hinton’s prediction, there remains a global shortage of human radiologists.

Surveying the field of medical ai in 2019, Eric Topol, a cardiologist and ai enthusiast, wrote that “the state of ai hype has far exceeded the state of ai science, especially when it pertains to validation and readiness for implementation in patient care”. Despite a plethora of ideas, covid-19 is mostly being fought with old weapons that are already to hand. Contacttracing has been done with shoe leather and telephone calls. Clinical trials focus on existing drugs. Plastic screens and paint on the pavement enforce low-tech distancing advice.

The same consultants who predict that ai will have a world-altering impact also report that real managers in real companies are finding ai hard to implement, and that enthusiasm for it is cooling. Svetlana Sicular of Gartner, a research firm, says that 2020 could be the year ai falls onto the downslope of her firm’s well-publicised “hype cycle”. Investors are beginning to wake up to bandwagon-jumping: a survey of European ai startups by mmc, a venture-capital fund, found that 40% did not seem to be using any ai at all. “I think there’s definitely a strong element of ‘investor marketing’,” says one analyst delicately.

This Technology Quarterly will investigate why enthusiasm is stalling. It will argue that although modern ai techniques are powerful, they are also limited, and they can be troublesome and difficult to deploy. Those hoping to make use of ai’s potential must confront two sets of problems.

The first is practical. The machine-learning revolution has been built on three things: improved algorithms, more powerful computers on which to run them, and—thanks to the gradual digitisation of society—more data from which they can learn. Yet data are not always readily available. It is hard to use ai to monitor covid-19 transmission without a comprehensive database of everyone’s movements, for instance. Even when data do exist, they can contain hidden assumptions that can trip the unwary. The newest ai systems’ demand for computing power can be expensive. Large organisations always take time to integrate new technologies: think of electricity in the 20th century or the cloud in the 21st. None of this necessarily reduces ai’s potential, but it has the effect of slowing its adoption.

The second set of problems runs deeper, and concerns the algorithms themselves. Machine learning uses thousands or millions of examples to train a software model (the structure of which is loosely based on the neural architecture of the brain). The resulting systems can do some tasks, such as recognising images or speech, far more reliably than those programmed the traditional way with hand-crafted rules, but they are not “intelligent” in the way that most people understand the term. They are powerful pattern-recognition tools, but lack many cognitive abilities that biological brains take for granted. They struggle with reasoning, generalising from the rules they discover, and with the general-purpose savoir faire that researchers, for want of a more precise description, dub “common sense”. The result is an artificial idiot savant that can excel at well-bounded tasks, but can get things very wrong if faced with unexpected input.

Without another breakthrough, these drawbacks put fundamental limits on what ai can and cannot do. Self-driving cars, which must navigate an ever-changing world, are already delayed, and may never arrive at all. Systems that deal with language, like chatbots and personal assistants, are built on statistical approaches that generate a shallow appearance of understanding, without the reality. That will limit how useful they can become. Existential worries about clever computers making radiologists or lorry drivers obsolete—let alone, as some doom-mongers suggest, posing a threat to humanity’s survival—seem overblown. Predictions of a Chinese-economy-worth of extra gdp look implausible.

Today’s “ai summer” is different from previous ones. It is brighter and warmer, because the technology has been so widely deployed. Another full-blown winter is unlikely. But an autumnal breeze is picking up.
Título: Re:STEM
Publicado por: wanderer en Enero 06, 2021, 18:58:03 pm
Muchas gracias, Maloserá, por traernos tu contribución dónde pone a la AI en su sitio. Menuda hipérbole hiperbólica...  :roto2: !!

Citar
The second set of problems runs deeper, and concerns the algorithms themselves. Machine learning uses thousands or millions of examples to train a software model (the structure of which is loosely based on the neural architecture of the brain). The resulting systems can do some tasks, such as recognising images or speech, far more reliably than those programmed the traditional way with hand-crafted rules, but they are not “intelligent” in the way that most people understand the term. They are powerful pattern-recognition tools, but lack many cognitive abilities that biological brains take for granted. They struggle with reasoning, generalising from the rules they discover, and with the general-purpose savoir faire that researchers, for want of a more precise description, dub “common sense”. The result is an artificial idiot savant that can excel at well-bounded tasks, but can get things very wrong if faced with unexpected input.

Without another breakthrough, these drawbacks put fundamental limits on what ai can and cannot do. Self-driving cars, which must navigate an ever-changing world, are already delayed, and may never arrive at all. Systems that deal with language, like chatbots and personal assistants, are built on statistical approaches that generate a shallow appearance of understanding, without the reality. That will limit how useful they can become. Existential worries about clever computers making radiologists or lorry drivers obsolete—let alone, as some doom-mongers suggest, posing a threat to humanity’s survival—seem overblown. Predictions of a Chinese-economy-worth of extra gdp look implausible.

Yo soy de la opinión de Penrose (https://en.wikipedia.org/wiki/The_Emperor%27s_New_Mind): no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.
Título: Re:STEM
Publicado por: Maloserá en Enero 06, 2021, 19:31:27 pm
Yo soy de la opinión de Penrose (https://en.wikipedia.org/wiki/The_Emperor%27s_New_Mind): no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.

Hace unos días Pollo escribió un post muy bueno en el hilo principal (ppcc/asustadísimos), no sé si lo has leído.
Título: Re:STEM
Publicado por: pollo en Enero 06, 2021, 20:42:49 pm
Muchas gracias, Maloserá, por traernos tu contribución dónde pone a la AI en su sitio. Menuda hipérbole hiperbólica...  :roto2: !!

Citar
The second set of problems runs deeper, and concerns the algorithms themselves. Machine learning uses thousands or millions of examples to train a software model (the structure of which is loosely based on the neural architecture of the brain). The resulting systems can do some tasks, such as recognising images or speech, far more reliably than those programmed the traditional way with hand-crafted rules, but they are not “intelligent” in the way that most people understand the term. They are powerful pattern-recognition tools, but lack many cognitive abilities that biological brains take for granted. They struggle with reasoning, generalising from the rules they discover, and with the general-purpose savoir faire that researchers, for want of a more precise description, dub “common sense”. The result is an artificial idiot savant that can excel at well-bounded tasks, but can get things very wrong if faced with unexpected input.

Without another breakthrough, these drawbacks put fundamental limits on what ai can and cannot do. Self-driving cars, which must navigate an ever-changing world, are already delayed, and may never arrive at all. Systems that deal with language, like chatbots and personal assistants, are built on statistical approaches that generate a shallow appearance of understanding, without the reality. That will limit how useful they can become. Existential worries about clever computers making radiologists or lorry drivers obsolete—let alone, as some doom-mongers suggest, posing a threat to humanity’s survival—seem overblown. Predictions of a Chinese-economy-worth of extra gdp look implausible.

Yo soy de la opinión de Penrose (https://en.wikipedia.org/wiki/The_Emperor%27s_New_Mind): no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.
Quizá no necesariamente, pero en mi opinión, por lógica, esa inteligencia debe tener alguna noción de lo que llamamos "sentido común", es decir, entender contextos y poder ejecutar simulaciones heurísticas de la realidad basándose en hechos generales sobre la realidad conocida, que es exactamente lo que hacemos nosotros cuando nos enfrentamos a problemas genéricos que no nos hemos encontrado antes: nos imaginamos lo que podría pasar (que es eso, una simulación aproximada en nuestra cabeza basada en nuestro sentido común) y probamos a ver qué pasa. Si no funciona, sacamos conclusiones contrastando nuestra simulación con el resultado en el mundo real, reajustamos y procedemos a ser algo más conocedores de la realidad.

Para ello, es imprescindible que tal modelo fuese entrenado en el mundo real, interactuando con todo tipo de información relacionada a conceptos (lo que hace un niño al crecer, que básicamente registra toda la información connotativa sobre todas y cada una de sus interacciones con la realidad).

Una vez llegado a ese punto, creo que los investigadores se encontrarán con el mismo problema que tenemos nosotros: si razonamos sobre pongamos, problemas matemáticos, desde el nivel de abstracción de nuestra mente, nunca podremos ser tan rápidos como una calculadora, ya que lo que permite que una máquina sea tan rápida es precisamente la ausencia de razonamiento complejo (que permite que los cálculos se resuelvan usando simples interacciones físicas dispuestas de manera razonada previamente por alguien que diseña el circuito.

O dicho de otra forma: creo que el precio a pagar por la inteligencia y el razonamiento general, es la imposibilidad de que se pueda hacer con la velocidad de una máquina. Para ello necesitas un mecanismo especializado en resolver problemas concretos sin razonar sobre ellos in situ.

Esto se corresponde con nuestra experiencia con habilidades complejas: cuando alguien lleva años haciendo algo, ni siquiera tiene que pensar en ello. Es una automatización. Sin embargo, cuando se aprende se es extremadamente torpe al principio, y sin embargo el "hardware" es el mismo.

La diferencia entre la IA actual y nosotros, es que nosotros somos capaces de llegar por nosotros mismos a esa automatización, y la IA actual jamás puede llegar salvo que alguien la programe/entrene específicamente para ello. Me aventuro a decir que sin un instinto de curiosidad, no es viable hacer esto en la práctica, y por eso los cachorros de todas las especies complejas tienen el sentido de la curiosidad desarrollado por evolución.
Título: Re:STEM
Publicado por: Maloserá en Enero 06, 2021, 21:33:12 pm
Continúo con el especial AI de The Economist.

The business world: Businesses are finding AI hard to adopt
Not every company is an internet giant

“Facebook: the inside story”, Steven Levy’s recent book about the American social-media giant, paints a vivid picture of the firm’s size, not in terms of revenues or share price but in the sheer amount of human activity that thrums through its servers. 1.73bn people use Facebook every day, writing comments and uploading videos. An operation on that scale is so big, writes Mr Levy, “that it can only be policed by algorithms or armies”.

In fact, Facebook uses both. Human moderators work alongside algorithms trained to spot posts that violate either an individual country’s laws or the site’s own policies. But algorithms have many advantages over their human counterparts. They do not sleep, or take holidays, or complain about their performance reviews. They are quick, scanning thousands of messages a second, and untiring. And, of course, they do not need to be paid.

And it is not just Facebook. Google uses machine learning to refine search results, and target advertisements; Amazon and Netflix use it to recommend products and television shows to watch; Twitter and TikTok to suggest new users to follow. The ability to provide all these services with minimal human intervention is one reason why tech firms’ dizzying valuations have been achieved with comparatively small workforces.

Firms in other industries woud love that kind of efficiency. Yet the magic is proving elusive. A survey carried out by Boston Consulting Group and mit polled almost 2,500 bosses and found that seven out of ten said their ai projects had generated little impact so far. Two-fifths of those with “significant investments” in ai had yet to report any benefits at all.

Perhaps as a result, bosses seem to be cooling on the idea more generally. Another survey, this one by pwc, found that the number of bosses planning to deploy ai across their firms was 4% in 2020, down from 20% the year before. The number saying they had already implemented ai in “multiple areas” fell from 27% to 18%. Euan Cameron at pwc says that rushed trials may have been abandoned or rethought, and that the “irrational exuberance” that has dominated boardrooms for the past few years is fading.

There are several reasons for the reality check. One is prosaic: businesses, particularly big ones, often find change difficult. One parallel from history is with the electrification of factories. Electricity offers big advantages over steam power in terms of both efficiency and convenience. Most of the fundamental technologies had been invented by the end of the 19th century. But electric power nonetheless took more than 30 years to become widely adopted in the rich world.

Reasons specific to ai exist, too. Firms may have been misled by the success of the internet giants, which were perfectly placed to adopt the new technology. They were already staffed by programmers, and were already sitting on huge piles of user-generated data. The uses to which they put ai, at least at first—improving search results, displaying adverts, recommending new products and the like—were straightforward and easy to measure.

Not everyone is so lucky. Finding staff can be tricky for many firms. ai experts are scarce, and command luxuriant salaries. “Only the tech giants and the hedge funds can afford to employ these people,” grumbles one senior manager at an organisation that is neither. Academia has been a fertile recruiting ground.

A more subtle problem is that of deciding what to use ai for. Machine intelligence is very different from the biological sort. That means that gauging how difficult machines will find a task can be counter-intuitive. ai researchers call the problem Moravec’s paradox, after Hans Moravec, a Canadian roboticist, who noted that, though machines find complex arithmetic and formal logic easy, they struggle with tasks like co-ordinated movement and locomotion which humans take completely for granted.

For example, almost any human can staff a customer-support helpline. Very few can play Go at grandmaster level. Yet Paul Henninger, an ai expert at kpmg, an accountancy firm, says that building a customer-service chatbot is in some ways harder than building a superhuman Go machine. Go has only two possible outcomes—win or lose—and both can be easily identified. Individual games can play out in zillions of unique ways, but the underlying rules are few and clearly specified. Such well-defined problems are a good fit for ai. By contrast, says Mr Henninger, “a single customer call after a cancelled flight has…many, many more ways it could go”.

What to do? One piece of advice, says James Gralton, engineering director at Ocado, a British warehouse-automation and food-delivery firm, is to start small, and pick projects that can quickly deliver obvious benefits. Ocado’s warehouses are full of thousands of robots that look like little filing cabinets on wheels. Swarms of them zip around a grid of rails, picking up food to fulfil orders from online shoppers.

Ocado’s engineers used simple data from the robots, like electricity consumption or torque readings from their wheel motors, to train a machine-learning model to predict when a damaged or worn robot was likely to fail. Since broken-down robots get in the way, removing them for pre-emptive maintenance saves time and money. And implementing the system was comparatively easy.

The robots, warehouses and data all existed already. And the outcome is clear, too, which makes it easy to tell how well the ai model is working: either the system reduces breakdowns and saves money, or it does not. That kind of “predictive maintenance”, along with things like back-office automation, is a good example of what pwc approvingly calls “boring ai” (though Mr Gralton would surely object).

There is more to building an ai system than its accuracy in a vacuum. It must also do something that can be integrated into a firm’s work. During the late 1990s Mr Henninger worked on Fair Isaac Corporation’s (fico) “Falcon”, a credit-card fraud-detection system aimed at banks and credit-card companies that was, he says, one of the first real-world uses for machine learning. As with predictive maintenance, fraud detection was a good fit: the data (in the form of credit-card transaction records) were clean and readily available, and decisions were usefully binary (either a transaction was fraudulent or it wasn’t).

The widening gyre

But although Falcon was much better at spotting dodgy transactions than banks’ existing systems, he says, it did not enjoy success as a product until fico worked out how to help banks do something with the information the model was generating. “Falcon was limited by the same thing that holds a lot of ai projects back today: going from a working model to a useful system.” In the end, says Mr Henninger, it was the much more mundane task of creating a case-management system—flagging up potential frauds to bank workers, then allowing them to block the transaction, wave it through, or phone clients to double-check—that persuaded banks that the system was worth buying.

Because they are complicated and open-ended, few problems in the real world are likely to be completely solvable by ai, says Mr Gralton. Managers should therefore plan for how their systems will fail. Often that will mean throwing difficult cases to human beings to judge. That can limit the expected cost savings, especially if a model is poorly tuned and makes frequent wrong decisions.

The tech giants’ experience of the covid-19 pandemic, which has been accompanied by a deluge of online conspiracy theories, disinformation and nonsense, demonstrates the benefits of always keeping humans in the loop. Because human moderators see sensitive, private data, they typically work in offices with strict security policies (bringing smartphones to work, for instance, is usually prohibited).

In early March, as the disease spread, tech firms sent their content moderators home, where such security is tough to enforce. That meant an increased reliance on the algorithms. The firms were frank about the impact. More videos would end up being removed, said YouTube, “including some that may not violate [our] policies”. Facebook admitted that less human supervision would likely mean “longer response times and more mistakes”. ai can do a lot. But it works best when humans are there to hold its hand.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 07, 2021, 18:08:33 pm
Yo soy de la opinión de Penrose (https://en.wikipedia.org/wiki/The_Emperor%27s_New_Mind): no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.
El propio Roger Penrose reconoció en la primera parte de su libro Las sombras de la mente (https://es.wikipedia.org/wiki/Las_sombras_de_la_mente) que su argumentación expuesta en La nueva mente del emperador (https://es.wikipedia.org/wiki/La_nueva_mente_del_emperador) basada en los teoremas de incompletitud de Gödel para demostrar que un ordenador nunca podría ser consciente era incorrecta (su mayor error fue considerar que "la conciencia es no-algorítmica" ya que eso conduce a una argumentación circular). En la segunda parte de Las sombras de la mente Roger Penrose en su hipótesis de Penrose-Hameroff de reducción objetiva orquestada ("Orch OR" ) propone una nueva idea: que la conciencia depende de procesos cuánticos en el cerebro realizados por microtúbulos situados dentro de las neuronas que funcionan de manera orquestada (sus detractores argumentan que el cerebro es demasiado «caliente, húmedo y ruidoso» para que se den procesos cuánticos sutiles).

Evidentemente el debate sigue abierto y Reger Penrose sigue convencido de que es imposible crear una máquina consciente, pero, incluso aunque estuviese en lo cierto(*), a día de hoy, la mayoría de los investigadores que trabajan en el campo de la inteligencia artificial están persiguendo no es desarrollar una AGI (Artificial General Intelligence) sino una NAI (Narrow Artificial Intelligence) ya que eso permitiría abordar y resolver muchos problemas prácticos que ahora mismo no somos capaces de resolver de forma eficiente (e.g. el problema del plegado de las proteínas).

Como se ha comentado tantas veces, para llegar al coche autónomo no es necesario lograr que el software autónomo de conducción sea perfecto, basta con que sea mejor que la media de los hunanos (y, teniendo en cuenta la cantidad de accidentes de tráfico que se producen al año ‒la mayoría achacables a errores humanos‒ está claro que no es algo tan difícil).

Saludos.

P.D.

Por si quieren profundizar sobre el debate entre Roger Penrose y sus detractores les recomiendo este post de Hilary Putnam (https://es.wikipedia.org/wiki/Hilary_Putnam) que fue publicado a finales de noviembre de 1994 en el New York Times:

The Best of All Possible Brains? (https://archive.nytimes.com/www.nytimes.com/books/97/04/27/nnp/17540.html)

Revista de Libros publicó una entrada en 1997 que incluía una traducción al español del artículo original de Hilary Putnam:

Acerca de un mal uso del teorema de Gödel en la especulación sobre la mente (https://www.revistadelibros.com/articulos/las-sombras-de-la-mente-de-penrose)

(*) Algo que yo no comparto ya que, estando de acuerdo en que la consciencia es una propiedad emergente del cerebro, nadie ha demostrado que esa propiedad emergente dependa del sustrato físico, por lo que pienso que, al igual que surge en esa masa gris de unos 1.300 gramos que conforma el cerebro humano, perfectamente podría aparecer también en un sustrato no basado en el carbono sino en el silicio y/o con una arquitectura totalmente diferente a la del cerebro. Podemos recurrir al clásico ejemplo de que los aviones no necesitan mover las alas como hacen los pájaros para poder volar, y, aunque evidentemente no se ha podido demostrar todavía, lo más probable es que tampoco sea necesario replicar la estructura de un cerebro para que surja la conciencia en una máquina.

Pollo sacaba a relucir en su post anterior el concepto del "sentido común" en las máquinas (algo que no es exclusivo del cerebro humano y que la evolución ha considerado que es importnte para todos los animales ya que les ayuda a sobrevivir y, con ello, perpetuar sus genes).

En mi opinión, el siguiente gran avance en el campo de la Inteligencia Artificial llegará una vez que dé el paso de combinar una IA y un robot ya que (y Douglas Hofstadter lo analiza de forma genial en su libro The Mind's I (https://en.wikipedia.org/wiki/The_Mind%27s_I)) un "cerebro", para desarrollarse necesita estar "encarnado".

Hasta ahora las IAs que se están desarrollando raramente inteactuan con el mundo físico, están "aisladas" del mundo real y, por tanto, no pueden "aprender" como lo hace cualquier ser vivo (el coche autónomo es uno de las pocas excepciones y por eso los avances que se están produciendo en dicho campo son particularmente interesantes).
Título: Re:STEM
Publicado por: puede ser en Enero 07, 2021, 19:57:09 pm

En mi opinión, el siguiente gran avance en el campo de la Inteligencia Artificial llegará una vez que dé el paso de combinar una IA y un robot ya que (y Douglas Hofstadter lo analiza de forma genial en su libro The Mind's I (https://en.wikipedia.org/wiki/The_Mind%27s_I)) un "cerebro", para desarrollarse necesita estar "encarnado".

Hasta ahora las IAs que se están desarrollando raramente inteactuan con el mundo físico, están "aisladas" del mundo real y, por tanto, no pueden "aprender" como lo hace cualquier ser vivo (el coche autónomo es uno de las pocas excepciones y por eso los avances que se están produciendo en dicho campo son particularmente interesantes).

Efectivamente, la inteligencia humana no está en el cerebro, sino que el cerebro es sólo un nodo privilegiado de intercambio de información proveniente de cada célula del cuerpo. Particularmente interesante es la posible relación existente entre el lenguaje verbal y el gestual, siendo el primero un mero refinamiento del segundo.

Llegados a este punto podríamos preguntarnos si una computadora avanzadísima, al unirla a unos hierros con articulaciones y cables se convierte ya en una máquina con muchas más posibilidades de acercarse a la inteligencia humana. Yo creo que no, y no sólo por la complejidad enorme de nuestro sistema celular, sino por la evidente simbiosis que tenemos con el resto de seres naturales (véase por ejemplo el caso de la microbiota intestinal).

Por seguir con un ejemplo típico del 2º Wittgenstein (al que cita Putnam en su artículo): el dolor. ¿Cómo puede tener un ordenador comprensión de lo que es el dolor y sus grados?, ¿sólo por ponerle un cuerpo robótico ya se podría acercar a ello?...
Título: Re:STEM
Publicado por: pollo en Enero 07, 2021, 20:06:16 pm

Como se ha comentado tantas veces, para llegar al coche autónomo no es necesario lograr que el software autónomo de conducción sea perfecto, basta con que sea mejor que la media de los hunanos (y, teniendo en cuenta la cantidad de accidentes de tráfico que se producen al año ‒la mayoría achacables a errores humanos‒ está claro que no es algo tan difícil).

Saludos.
Yo creo que esa premisa, la de los acceidentes de tráfico, y sobre todo la observación de que es "fácil" que sea mejor que un humano, es un error de bulto que cometen prácticamente todos los que teorizan sobre esto.

Si fuera tan fácil, ya se habría conseguido.
El problema es que el 95% del problema está resuelto (la parte difícil) y ahora queda la parte extremadísimamente jodida.

Personalmente pienso que las estadísticas de accidentes no se están poniendo en la perspectiva correcta, y más bien diría que es extremadamente asombroso que haya los pocos accidentes que hay teniendo en cuenta el volumen tan absurdo de tráfico que se produce en el planeta a diario. Dudo mucho que las IA actuales puedan hacer semejante cosa. Y sí, el 99% del tiempo lo harían (no me cabe duda) de puta madre, el problema es que el otro 1% de situaciones los humanos las resuelven a diario sin prácticamente errores y para una IA son imposibles de coomprender (ya no digamos resolver).
Y fallar un 1% de las situaciones, o un 0.1%, o un 0.01% de las situaciones, siento decirlo, es una basura. Un humano identifica contextos sin equivocarse el 100% de las veces (nadie va a confundir un camión blanco con un espacio vacío, o un periódico con una piedra, o fallará al interpretar a un guardia, o los gestos de otro conductor, o a identificar una situación excepcional).

Es muy fácil decir que "los humanos conducimos mal", pero si nos guiamos por la realidad y no por las fantasías de Hollywod o futuristas vendehumos, una IA de conducción sigue sin acercarse ni de coña a lo que puede hacer un humano en cuanto surgen condiciones que no sean triviales. Y cuando una automatización crítica es fiable la mayor parte del tiempo es una trampa mortal que induce a confiarse.

Como ya dije en otro post: es más difícil imitar a Kasparov cogiendo un peón y moviédolo con la mano, que en pensar las jugadas en el ajedrez que le ganen. La diferente naturaleza de ambos problemas da una pista de las debilidades de los enfoques actuales. No deja de ser también significativo que todas las técnicas actuales requieren una cantidad muy considerable de fuerza bruta computacional previa a la resolución del problema.

Por otro lado, no hay solución a algo tan "fácil" como doblar la ropa o atar unos zapatos con una mano robótica. ¿Por qué? Porque:

Creemos que tenemos la solución porque sabemos hacer el 95% "fácil", pero es que el 5% que resta es crítico (y muchísimo más complicado, ya que opera a niveles de abstracción muy superiores) para que ciertos problemas sean solucionados de verdad y no con aproximaciones muy lejanas de lo que se vende en realidad.

Superar la fiabilidad de los humanos al conducir: engañosamente fácil.
Título: Re:STEM
Publicado por: pollo en Enero 07, 2021, 20:13:26 pm

En mi opinión, el siguiente gran avance en el campo de la Inteligencia Artificial llegará una vez que dé el paso de combinar una IA y un robot ya que (y Douglas Hofstadter lo analiza de forma genial en su libro The Mind's I (https://en.wikipedia.org/wiki/The_Mind%27s_I)) un "cerebro", para desarrollarse necesita estar "encarnado".

Hasta ahora las IAs que se están desarrollando raramente inteactuan con el mundo físico, están "aisladas" del mundo real y, por tanto, no pueden "aprender" como lo hace cualquier ser vivo (el coche autónomo es uno de las pocas excepciones y por eso los avances que se están produciendo en dicho campo son particularmente interesantes).

Efectivamente, la inteligencia humana no está en el cerebro, sino que el cerebro es sólo un nodo privilegiado de intercambio de información proveniente de cada célula del cuerpo. Particularmente interesante es la posible relación existente entre el lenguaje verbal y el gestual, siendo el primero un mero refinamiento del segundo.

Llegados a este punto podríamos preguntarnos si una computadora avanzadísima, al unirla a unos hierros con articulaciones y cables se convierte ya en una máquina con muchas más posibilidades de acercarse a la inteligencia humana. Yo creo que no, y no sólo por la complejidad enorme de nuestro sistema celular, sino por la evidente simbiosis que tenemos con el resto de seres naturales (véase por ejemplo el caso de la microbiota intestinal).

Por seguir con un ejemplo típico del 2º Wittgenstein (al que cita Putnam en su artículo): el dolor. ¿Cómo puede tener un ordenador comprensión de lo que es el dolor y sus grados?, ¿sólo por ponerle un cuerpo robótico ya se podría acercar a ello?...
Sin sensores no hay estímulos. Por otro lado, el dolor o el placer a nivel más fundamental no se comprenden, pero es un mecanismo evolutivo crítico e imperativo que nos impulsa a todos los seres vivos conscientes a comportarnos de una forma que nos beneficie por un lado y que no nos cause daño por otro.

Lo cojonudo de los seres vivos, es que cuanto más se descubre, más apunta todo a que el sistema es holístico en muchos aspectos. Hay neurólogos que dicen que el cerebro en el cráneo es sólo uno de varios "cerebros" (o quizá mejor llamarlos centros neurales) que tenemos en diferentes partes del cuerpo, p.ej en el corazón o en los intestinos. Obviamente el cerebro como tal es el más complejo y el que orquesta todo, pero hay más conjuntos de neuronas por ahí procesando información de otras partes del cuerpo, de los que poco se sabe.

La interacción entre todos los elementos del cuerpo y lo poco separables que son entre sí, bien podrían significar que el cerebro no es lo único que posibilita ciertas cosas. Elementos del qualia como la propriocepción son todavía un misterio, pero sabemos que existe (por ejemplo el dolor de miembros fantasma, y cosas similares).

Alucinógenos como la Salvia alteran este sentido haciendo que las personas sientan que se extienden físicamente hacia el infinito, les retuercen, les dividen en partes o toman formas de otros objetos (creo que no se conocen otros que produzcan este tipo de alucinaciones). También se sabe que el mapa del cerebro sobre el propio cuerpo no tiene por qué corresponder al cuerpo físico y que de hecho se le puede engañar.

De todos estos fenómenos y de cómo funcionan no sabemos básicamente nada excepto cuatro cosillas de brocha muy gorda. Y todos estos conceptos son muy seguramente clave para entender muchas cosas que se desconocen. Muy probablemente podremos aproximar comportamientos, pero sin un conocimiento más profundo dudo mucho que se llegue a entender la cosa hasta el punto de poder crear inteligencias arbitrarias.
Título: Re:STEM
Publicado por: wanderer en Enero 07, 2021, 21:09:49 pm
Yo básicamente comparto la postura de Pollo: la inteligencia humana es un grandísimo heurístico, pero es que una inteligencia animal, aún de un animal inferior como un insecto que dudosamente tenga consciencia, también lo es y es capaz de resolver problemas que para una IA las supera, o si hacen algo que mínimamente se les acerque (e.g, moverse en su entorno reconociéndolo), sólo pueden hacerlo a base de entrenamiento con bases inmensas de datos y fuerza bruta computacional. Por eso en más de una ocasión he sostenido que cuanta más capacidad de cálculo tengan, menos me impresionan, porque me parece que abordan los problemas de un modo altamente "no-inteligente" con un derroche espectacular de recursos, siendo que los sistemas biológicos, con recursos muchos órdenes de magnitud inferiores, les dan sopas con honda a tales sistemas.

Con lo cual no digo que la investigación en tales áreas no tenga sentido ni que no pueda dar muchos frutos de utilidad, pero no sólo es que no se aproximen a una inteligencia humana, es que tampoco a una animal.

No creo que haya que recurrir a los Teoremas de Incompletitud de Gödel para probar la existencia de la inteligencia humana: pocas personas pueden comprender sus enunciados, y aún menos su demostración metamatemática (en sentido estricto, no son teoremas matemáticos, sino teoremas sobre Matemáticas), sin que ello implique que no sean inteligentes; lo que sí que implican es que sobrepasamos las capacidades de cualquier máquina universal de Turing (https://es.wikipedia.org/wiki/M%C3%A1quina_de_Turing_universal) (sobre las cuales están basadas las arquitecturas de todos los modernos ordenadores), pues hemos sido capaces de idearlas en teoría e implementarlas en la práctica (ésto sólo aproximadamente, pues en rigor una tal máquina tendría memoria ilimitada), pero sin estar sujetos a sus limitaciones intrínsecas.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 07, 2021, 21:45:58 pm
Por otro lado, no hay solución a algo tan "fácil" como doblar la ropa o atar unos zapatos con una mano robótica. ¿Por qué? Porque:
  • Reconocer y entender objetos en el espacio de verdad no está resuelto (ahora sólo se reconocen formas toscas y se tratan como cajas o aproximaciones similares). Para doblar un calcetín hay que poder reconocerlo aunque esté doblado, plegado, etc. y saber interpretar su topología a partir de una imagen 2D y posiblemente (y casi diría que necesariamente) tacto. Nosotros nos ayudamos por el sentido común, unas pocas informaciones a primera vista y extrapolamos todo lo demás.
  • Coger objetos una vez reconocidos tampoco está resuelto ni cerca de estarlo, en particular, cuando estos objetos tienen formas mutables, como los calcetines. De momento no hay una forma de representar esto.
  • A la hora de hacer este tipo de movimientos, los humanos nos basamos muchísimo en el tacto. Sentido para el que no hay un estudio extensivo ni un modelo de cómo funciona a nivel que permita entender cómo usamos un sensor de área como es la piel de los dedos para entender intuitivamente la forma y topología del objeto. Pero el caso es que lo hacemos sin mayor dificultad.
  • "Doblar la ropa" es un conjunto de acciones sobre una serie de objetos no muy bien definidos, y que debe terminar en un estado que tampoco está muy claro cómo definir. Sin embargo, cualquier persona lo entiende a la primera, y un niño entiende el concepto en seguida.
Como ya es la segunda vez que menciona la complejidad de una tarea aparentemente tan sencilla como doblar la ropa (y, efectivamente, es todo un reto de hardware y software), les traigo algunos vídeos que recuerdo haber visto hace tiempo.

Este es de hace diez años, un robot capaz de doblar toallas (vídeo acelerado x50):

(https://i.imgur.com/x7dmRqq.jpg) (https://www.youtube.com/watch?v=KVnHmWen_oo)
Robots can fold clothes too (https://www.youtube.com/watch?v=KVnHmWen_oo)

Y este otro es de 2016 y el robot puede doblar no solo toallas, sino también camisetas y pantalones cortos (vídeo acelerado a x3):

(https://i.imgur.com/usitMkR.jpg) (https://www.youtube.com/watch?v=8TsLkpPsdKo)
Folding Clothes Autonomously: A Complete Pipeline (https://www.youtube.com/watch?v=8TsLkpPsdKo)

Va a ser interesante ver la progresión de este tipo de robots  :)

Saludos.
Título: Re:STEM
Publicado por: Maloserá en Enero 07, 2021, 22:03:52 pm
https://www.economist.com/technology-quarterly/2021-01-09 (https://www.economist.com/technology-quarterly/2021-01-09)

Estamos tan al día en TE que hasta tenemos artículos extranjeros de pasado mañana... El especial de invierno de Tecnologíá de The Economist ya está aquí, dedicado a la luz. Os dejo el índice. Registrarse da acceso a cinco artículos al mes gratis. Vale la pena leerlos en la revista directamente, cuidan el diseño grafico y la tipografía es muy fácil de leer en pantallas (espectacular la del app para móvil). Si queréis alguno de los articulos aquí, vuestras órdenes son mis deseos...


The liberation of light
How understanding light has led to a hundred years of bright ideas
TECHNOLOGY QUARTERLY - JAN 9TH 2021



The revolutionary theory of the nature of light which won Albert Einstein the 1921 Nobel prize for physics went on to remake the world. Oliver Morton surveys a century of innovation

1. A hundred years of bright ideas: How understanding light has led to a hundred years of bright ideas.
The revolutionary theory of the nature of light which won Albert Einstein the 1921 Nobel prize for physics went on to remake the world. Oliver Morton surveys a century of innovation

2. Solar power: How governments spurred the rise of solar power.
In many places solar panels are now by far the cheapest way to produce electricity

3. Information technology:
From the universe to the dataverse.
How light becomes information, and information becomes light

4. Lasers: Why lasers are so brilliantly useful.
It has failed to live up to its perceived military potential, but the laser’s peaceable applications have been spectacular

5. Advancing science: Illumination at the limits of knowledge
From making living lasers to detecting black holes, the needs of science drive the technologies of light to extremes
Título: Re:STEM
Publicado por: pollo en Enero 07, 2021, 23:41:41 pm
Por otro lado, no hay solución a algo tan "fácil" como doblar la ropa o atar unos zapatos con una mano robótica. ¿Por qué? Porque:
  • Reconocer y entender objetos en el espacio de verdad no está resuelto (ahora sólo se reconocen formas toscas y se tratan como cajas o aproximaciones similares). Para doblar un calcetín hay que poder reconocerlo aunque esté doblado, plegado, etc. y saber interpretar su topología a partir de una imagen 2D y posiblemente (y casi diría que necesariamente) tacto. Nosotros nos ayudamos por el sentido común, unas pocas informaciones a primera vista y extrapolamos todo lo demás.
  • Coger objetos una vez reconocidos tampoco está resuelto ni cerca de estarlo, en particular, cuando estos objetos tienen formas mutables, como los calcetines. De momento no hay una forma de representar esto.
  • A la hora de hacer este tipo de movimientos, los humanos nos basamos muchísimo en el tacto. Sentido para el que no hay un estudio extensivo ni un modelo de cómo funciona a nivel que permita entender cómo usamos un sensor de área como es la piel de los dedos para entender intuitivamente la forma y topología del objeto. Pero el caso es que lo hacemos sin mayor dificultad.
  • "Doblar la ropa" es un conjunto de acciones sobre una serie de objetos no muy bien definidos, y que debe terminar en un estado que tampoco está muy claro cómo definir. Sin embargo, cualquier persona lo entiende a la primera, y un niño entiende el concepto en seguida.
Como ya es la segunda vez que menciona la complejidad de una tarea aparentemente tan sencilla como doblar la ropa (y, efectivamente, es todo un reto de hardware y software), les traigo algunos vídeos que recuerdo haber visto hace tiempo.

Este es de hace diez años, un robot capaz de doblar toallas (vídeo acelerado x50):
(https://i.imgur.com/x7dmRqq.jpg) (https://www.youtube.com/watch?v=KVnHmWen_oo)
Robots can fold clothes too (https://www.youtube.com/watch?v=KVnHmWen_oo)
Y este otro es de 2016 y el robot puede doblar no solo toallas, sino también camisetas y pantalones cortos (vídeo acelerado a x3):
(https://i.imgur.com/usitMkR.jpg) (https://www.youtube.com/watch?v=8TsLkpPsdKo)
Folding Clothes Autonomously: A Complete Pipeline (https://www.youtube.com/watch?v=8TsLkpPsdKo)
Va a ser interesante ver la progresión de este tipo de robots  :)

Saludos.
Efectivamente, es un problema interesante.
Y es muy ingeniosa la manera de resolverlo que tienen aquí, pero esto es una solución tradicional al problema (algoritmia), que no es práctica, lenta, y vale para casos concretos. Y debieron invertir mucho tiempo en lograr resultados (y también sería interesante saber cuántos errores tiene).

Yo entendería por IA y como problema solucionado un robot (espero que más compacto) que en base únicamente al input de sus sensores y su análisis, y a la acción de sus actuadores y (importante) sin usar un algoritmo con unas acciones prefijadas para prendas concretas, fuera capaz de doblar cualquier prenda que le pongas por delante, esté colocada como esté. Y reaccionar a los movimientos de la propia prenda durante el proceso (aquí me parece que si se le mueve o coloca de forma inesperada, ya no podría seguir). Bueno, y que lo haga a una velocidad que lo haga útil (vamos, vendible).

Para eso me temo que falta mucho. Si incorporan algún tipo de "tacto" (creo que habían patentado una piel flexible de látex hace unos años con una matriz de sensores de presión y temperatura, que podría servir como inspiración) y elaboran un modelo para interpretarlo (podría ser Machine Learning perfectamente) pueden tener un robot interesante para hacer.

Los de Boston Dynamics podrían ponerse a ello. Parece que saben lo que hacen.

Sería un electrodoméstico realmente útil y vendería mucho me parece.
Título: Re:STEM
Publicado por: Saturio en Enero 08, 2021, 01:36:19 am
Aquí va la opinión de alguien que no sabe nada de estas cosas (salvo haber estado en proyectos de producción automatizada pero no desde el punto de vista técnico).

El primer problema que tenemos es el empeñarnos en llamar a todas estas tecnologías inteligencia artificial. Y ahí empezamos a discutir.

En la EGB nos enseñaron muchos algoritmos y también en el bachillerato y en la Uni. Lo que pasa es que eran algoritmos que ejecutábamos nosotros. Antes de que naciésemos ya había máquinas que resolvían esos algoritmos. No eran electrónicas. La caja registradora de la tienda del Rosendo, "sabía" sumar, restar, multiplicar y dividir y a nadie se le ocurría decir que era inteligente. De los sistemas mecánicos se paso a sistemas híbridos mecánicos y eléctricos (conmutadores) y luego a válvulas y luego a microprocesadores y sistemas de almacenamiento electrónico. Esos avances permitieron meter matemáticas avanzadas en las máquinas. Recordemos que mecánicamente se podía hacer cálculo diferencial.
No sé si habréis visto a esa gente que hace computadoras en minecraft.

No sé si debemos empeñarnos en hacer máquinas que imiten el pensamiento humano. ¿Para qué?. De la misma forma que no sé para qué cojones queremos humanoides que suban escaleras o bailen La Macarena.
Todas esas cosas no las tenemos que ver más que como demos. A veces esas demos no son más que acciones de marketing. Otras veces son retos que en sí mismo no sirven para nada pero que sirven para aprender por el camino.

En mi modesta opinión hay que buscar máquinas que hagan lo que nosotros no podemos. No entiendo el empeño con lo del lenguaje humano. Al menos no más allá de que las máquinas entiendan comandos de voz (que pueden ser todo lo complejos que queramos). No entiendo el empeño en que las máquinas generen un discurso humano. A mi modo de ver, el discurso humano surge del pensamiento humano. Para qué quiero hablar con un no humano. Una cosa es preguntarle a Siri que temperatura hace fuera y otra es ponerme a escribir en este foro esperando alguna reacción de ustedes.

Ni siquiera veo lo del coche autónomo. Es empeñarnos en que las máquinas hagan cosas que los humanos no hacemos tan mal. No sé cuanto tiempo y recursos nos va a llevar que los coches sean totalmente autónomos de verdad y que resulten al menos tan seguros como los humanos. De momento lo que tenemos son unas asistencias avanzadas que funcionan en unas determinadas condiciones y que debemos supervisar siempre. Es como tener a tu hijo de 11 años conduciendo mientras tu estás atento para corregirle la trayetoria o actuar sobre los pedales.

Ahora bien, si quiero cálculos a la velocidad del rayo para controlar el funcionamiento de cinco retrocohetes en función de la información de los giroscopios y otros sensores y sistemas, pues claro que necesito máquinas.

Por cierto, recordemos que en 1969 ya pudimos aterrizar en la luna de forma controlada con tripulación a bordo y volver a salir. Lo digo por los que alucinan con que SpaceX pueda 60 años después aterrizar en la tierra sus cohetes.

Evidentemente los avances se han producido, se producen y se producirán, pero 100 veces más despacio de lo que prometen los que lo venden.

Recuerden que cuando aparece una tecnología netamente superior, el cambio se hace en un abrir y cerrar de ojos. ¿Cuánto tardaron en desaparecer el 80% de las máquinas de escribir?.


 
Título: Re:STEM
Publicado por: pollo en Enero 08, 2021, 08:44:48 am
Aquí va la opinión de alguien que no sabe nada de estas cosas (salvo haber estado en proyectos de producción automatizada pero no desde el punto de vista técnico).

El primer problema que tenemos es el empeñarnos en llamar a todas estas tecnologías inteligencia artificial. Y ahí empezamos a discutir.

En la EGB nos enseñaron muchos algoritmos y también en el bachillerato y en la Uni. Lo que pasa es que eran algoritmos que ejecutábamos nosotros. Antes de que naciésemos ya había máquinas que resolvían esos algoritmos. No eran electrónicas. La caja registradora de la tienda del Rosendo, "sabía" sumar, restar, multiplicar y dividir y a nadie se le ocurría decir que era inteligente. De los sistemas mecánicos se paso a sistemas híbridos mecánicos y eléctricos (conmutadores) y luego a válvulas y luego a microprocesadores y sistemas de almacenamiento electrónico. Esos avances permitieron meter matemáticas avanzadas en las máquinas. Recordemos que mecánicamente se podía hacer cálculo diferencial.
No sé si habréis visto a esa gente que hace computadoras en minecraft.

No sé si debemos empeñarnos en hacer máquinas que imiten el pensamiento humano. ¿Para qué?. De la misma forma que no sé para qué cojones queremos humanoides que suban escaleras o bailen La Macarena.
Todas esas cosas no las tenemos que ver más que como demos. A veces esas demos no son más que acciones de marketing. Otras veces son retos que en sí mismo no sirven para nada pero que sirven para aprender por el camino.

En mi modesta opinión hay que buscar máquinas que hagan lo que nosotros no podemos. No entiendo el empeño con lo del lenguaje humano. Al menos no más allá de que las máquinas entiendan comandos de voz (que pueden ser todo lo complejos que queramos). No entiendo el empeño en que las máquinas generen un discurso humano. A mi modo de ver, el discurso humano surge del pensamiento humano. Para qué quiero hablar con un no humano. Una cosa es preguntarle a Siri que temperatura hace fuera y otra es ponerme a escribir en este foro esperando alguna reacción de ustedes.

Ni siquiera veo lo del coche autónomo. Es empeñarnos en que las máquinas hagan cosas que los humanos no hacemos tan mal. No sé cuanto tiempo y recursos nos va a llevar que los coches sean totalmente autónomos de verdad y que resulten al menos tan seguros como los humanos. De momento lo que tenemos son unas asistencias avanzadas que funcionan en unas determinadas condiciones y que debemos supervisar siempre. Es como tener a tu hijo de 11 años conduciendo mientras tu estás atento para corregirle la trayetoria o actuar sobre los pedales.

Ahora bien, si quiero cálculos a la velocidad del rayo para controlar el funcionamiento de cinco retrocohetes en función de la información de los giroscopios y otros sensores y sistemas, pues claro que necesito máquinas.

Por cierto, recordemos que en 1969 ya pudimos aterrizar en la luna de forma controlada con tripulación a bordo y volver a salir. Lo digo por los que alucinan con que SpaceX pueda 60 años después aterrizar en la tierra sus cohetes.

Evidentemente los avances se han producido, se producen y se producirán, pero 100 veces más despacio de lo que prometen los que lo venden.

Recuerden que cuando aparece una tecnología netamente superior, el cambio se hace en un abrir y cerrar de ojos. ¿Cuánto tardaron en desaparecer el 80% de las máquinas de escribir?.


 
El empeño por imitar este tipo de cosas, ya sea lenguaje, ya sea reconocimiento de objetos, ya sea movimientos, etc. es que son parte de un todo. No puedes entender cómo funciona en general si sólo resuelves uno de los problemas, y la utilidad suele disminuir enormemente sin esas diferentes partes.

Además, en cuanto a la imitación del movimiento de los seres vivos, es obvia a poco que se sepa de robótica: los movimientos y la autonomía de un robot están extremadamente limitadas, y resulta que para moverse por el mundo con un mínimo de facilidad, es necesario tener ciertos movimientos y soltura que un robot de momento no tiene ni de lejos. Si un robot tiene que moverse en un entorno más complejo que un suelo plano y sin obstáculos, se complica mucho el problema, y el robot deja de tener utilidad fuera de un escenario perfectamente preparado. Un robot es equivalente a un discapacitado en cuanto a moverse por el entorno, en la inmensa mayoría de casos. Cuando no lo es, es porque es exactamente ese problema el que se está resolviendo (el movimiento por el entorno).

Los objetivos son dos: por un lado para poder automatizar lo que nosotros sí podemos hacer, pero por lo que sea no aporta por ser una rutina (por ejemplo, lavar, planchar y doblar la ropa, imaginemos un aparato que lo hiciese todo sin supervisión), y por otro lado para comprender cómo funciona el proceso general de la inteligencia, que no deja de ser curiosidad por cómo funciona el universo, como cualquier otro campo científico.

Sobre los saltos que comentas en cuanto aparece una tecnología superior, no son problemas comparables, ya que precisamente la automatización algoritmica ya es un problema resuelto (hoy día sólo es cuestión de inversión y análisis coste/beneficio), pero sigue habiendo tareas que por su mayor nivel de abstracción, no es posible automatizar de forma satisfactoria. De ahí el empeño en crear técnicas que permiten autmatizar estas tareas. De hecho aunque no se hable en la prensa, porque no da titulares espectaculares, muchas de estas tareas sí que se han podido automatizar (o siquiera implementar) y hace ya mucho tiempo.

Hace 25 años, se creó en mi facultad un sistema que mediante visión artificial (que de aquella era algo puntero y que no todo el mundo con un PC podía investigar en su casa como ahora) era capaz de hacer control de calidad de tochos de acero recién salidos de la máquina al rojo vivo, inspección que antes había que hacer con cámaras y monitores pieza por pieza sin poder despegarse de la pantalla todo el tiempo. También me suena un sistema que calculaba el peso de ganado vacuno usando fotografías en lugar de una báscula (si funcionó, que no lo sé, la utilidad es obvia).

No sólo es imitar el pensamiento o movimientos humanos, también es resolver problemas prácticos en la industria. Uno de los que más usa este tipo de técnicas hoy día es Amazon, famosa por utilizar robótica en sus centros de logística. Lo que ocurre es que por muy sofisticados que sean, está claro que necesitan (y probablemente seguirá siendo así mucho tiempo) ejércitos de personas igualmente porque hay muchas de estas tareas que son imposibles de hacer de forma automatizada.
Título: Re:STEM
Publicado por: JoaquinR en Enero 08, 2021, 10:04:54 am
Señor Pollo, le recomiendo leer al Sr Simon Wardley y su idea de los Mapas de Wardley, que intentan mostrar el progreso natural de la tecnología de cara a poder posicionarse en el futuro. https://medium.com/wardleymaps/finding-a-path-cdb1249078c0 (https://medium.com/wardleymaps/finding-a-path-cdb1249078c0) aquí lo explica un poco, aunque le recomiendo leer el capítulo 1 (o todos) por ser relevantes. Aquí un ejemplo:

(https://miro.medium.com/max/4440/1*QD633OZDJxds3MWe_cbvUA.jpeg)

En general el principio es que las tecnologías empiezan como pruebas de concepto que no son más que juguetes, pasan a ser creadas de forma específica para cada problema, se productizan por verticales, luego pasan a ser productos alquilables, y finalmente se convierten en commodities intercambiables sin mucha diferenciación, y que se construyan nuevas tecnologías sobre esa capa intercambiable.

La robótica tiene partes que están en Génesis, y partes que están en las primeras fases de Custom Built. Le queda tiempo para llegar a Product, y mucho más para ser Commodity, pero realmente parece inevitable por ley de Moore que en algunos años (o décadas) el robot que lava, plancha y dobla exista, primero para ricos y finalmente como un electrodoméstico más.

El robot de Boston Dynamics ya puede correr a dos patas por casi cualquier terreno. Ha sido creado específicamente para eso y ese es el único problema que resuelve. La evolución natural es que ese problema ya resuelto se convierta en un componente de otros robots que hagan otras cosas, lo que abra la oportunidad de integrar otros componentes, y se genere un ciclo virtuoso que haga los robots una tecnología del día a día. No hoy ni mañana, evidentemente, pero la dirección está ahí, y no parece ser evitable.

Respecto a lo que comenta el señor Saturio, me temo que la evolución tecnológica no es instantánea, sino que depende de la altura en la que esté dentro de la cadena de valor. El núcleo informático de las plataformas de los bancos usa tecnología de los años 60 y así seguirá durante décadas, aunque su página web esté utilizando frameworks que salieron la semana pasada.

En general la adopción de una tecnología nueva en una función clave requiere de muchísimas iteraciones, y con buen motivo. Recomiendo leer Superiority, de Arthur C. Clarke (link aquí: http://www.mayofamily.com/RLM/txt_Clarke_Superiority.html (http://www.mayofamily.com/RLM/txt_Clarke_Superiority.html))
Título: Re:STEM
Publicado por: CHOSEN en Enero 08, 2021, 11:14:45 am
Sin embargo el problema sigue siendo el mismo: el robot de BD camina y sostiene el equilibrio porque el algoritmo le obliga a ello. Es un autómata. Y si plancha, cocina, dobla toda la ropa, y además camina y nos dice hola mientras sonríe, seguirá siendo un autómata que sigue un algoritmo predefinido.
Y un autómata es justo lo contrario a IA.
Son antónimos.

Entonces nos encontramos debatiendo si uno y su contrario son lo mismo, cuando obviamente no lo son por más que se intente vender como que si.

Para conseguir siquiera una aproximación a la inteligencia es necesario empezar por la volición no basada en aleatoriedad. ¿Pero como conseguir eso cuando tiene que utilizarse un algoritmo que sirva para discriminar entre posibles opciones?
¿Como conseguir que un algoritmo programado para escoger la mejor opción (es decir, la opción inteligente) "cambie" de opinión y escoja una peor por voluntad propia? ¿Eso le convierte en menos inteligente, o en mas?
Es una disyuntiva lógica que termina en absurdo.
No disponemos de herramientas para afrontar este problema.
Los sistemas inteligentes más básicos deberían empezar por tener una cierta voluntad no basada en aleatoriedad.
Esta imposibilidad se intenta salvar (desde la informática) con el método de ensayo-error, como si un ciervo recién nacido necesitara ensayar como comer, como beber agua, o como escapar de un lobo.
Y si ahora estas pensando que el cervatillo tiene pre-programadas esas acciones en su cerebro, entonces estás diciendo que su programación es evolutiva e inherente, por lo tanto está desde antes del nacimiento, lo cual significa que también lo está en los humanos, y entonces Platón tendría razón y Dios existe.

Solucionar el problema de la voluntad/aleatoriedad es el punto clave para transicionar desde la robótica compleja hasta verdadera IA, cosa que como ya hemos argumentado otras veces -principalmente Wanderer y yo- es un problema filosófico.



Pero en cuanto al desarrollo tenemos más impedimentos.
Como he dicho, el problema no es STEM. Yo me dedico a esto y orientarlo desde el punto de vista industrial o empresarial (como hace BostonDynamics) es un error, o cuanto menos un engaño semántico.
Desconfiad de todo avance en IA que venga de parte de una empresa, porque será falso. Lo que las empresas quieren son autómatas. El mercado no quiere un sistema aleatorio con capacidad de voluntad propia. Estamos luchando para que los humanos cumplan protocolos y se conviertan en robots, justo necesitamos que los robots NO tomen decisiones propias.
Entonces estamos metidos en otra reducción al absurdo: el mercado debería desarrollar robots autónomos que pudieran escoger una opción subóptima, lo cual los convierte en poco inteligentes, poco rentables, e incluso peligrosos.

Eso es justo lo contrario a IA.
A mi todos los caminos me llevan a la misma conclusión.
Título: Re:STEM
Publicado por: pollo en Enero 08, 2021, 11:28:11 am
Señor Pollo, le recomiendo leer al Sr Simon Wardley y su idea de los Mapas de Wardley, que intentan mostrar el progreso natural de la tecnología de cara a poder posicionarse en el futuro. [url]https://medium.com/wardleymaps/finding-a-path-cdb1249078c0[/url] ([url]https://medium.com/wardleymaps/finding-a-path-cdb1249078c0[/url]) aquí lo explica un poco, aunque le recomiendo leer el capítulo 1 (o todos) por ser relevantes. Aquí un ejemplo:

([url]https://miro.medium.com/max/4440/1[/url]*QD633OZDJxds3MWe_cbvUA.jpeg)

En general el principio es que las tecnologías empiezan como pruebas de concepto que no son más que juguetes, pasan a ser creadas de forma específica para cada problema, se productizan por verticales, luego pasan a ser productos alquilables, y finalmente se convierten en commodities intercambiables sin mucha diferenciación, y que se construyan nuevas tecnologías sobre esa capa intercambiable.

La robótica tiene partes que están en Génesis, y partes que están en las primeras fases de Custom Built. Le queda tiempo para llegar a Product, y mucho más para ser Commodity, pero realmente parece inevitable por ley de Moore que en algunos años (o décadas) el robot que lava, plancha y dobla exista, primero para ricos y finalmente como un electrodoméstico más.

El robot de Boston Dynamics ya puede correr a dos patas por casi cualquier terreno. Ha sido creado específicamente para eso y ese es el único problema que resuelve. La evolución natural es que ese problema ya resuelto se convierta en un componente de otros robots que hagan otras cosas, lo que abra la oportunidad de integrar otros componentes, y se genere un ciclo virtuoso que haga los robots una tecnología del día a día. No hoy ni mañana, evidentemente, pero la dirección está ahí, y no parece ser evitable.

Respecto a lo que comenta el señor Saturio, me temo que la evolución tecnológica no es instantánea, sino que depende de la altura en la que esté dentro de la cadena de valor. El núcleo informático de las plataformas de los bancos usa tecnología de los años 60 y así seguirá durante décadas, aunque su página web esté utilizando frameworks que salieron la semana pasada.

En general la adopción de una tecnología nueva en una función clave requiere de muchísimas iteraciones, y con buen motivo. Recomiendo leer Superiority, de Arthur C. Clarke (link aquí: [url]http://www.mayofamily.com/RLM/txt_Clarke_Superiority.html[/url] ([url]http://www.mayofamily.com/RLM/txt_Clarke_Superiority.html[/url]))

La dificultad grande que veo en el caso de los robots de BD, es básicamente que la complejidad (de hardware) es tal, que requeriría inversiones a escala de la industria automovilística o de la industria de los microchips si se quiere hacer despegar algo así y que acabe siendo un módulo reusable por otras industrias y sobre todo por el público friki, que es quienes al final acaban moviendo muchos de estos avances al haberse "democratizado" la investigación de este tipo en el software.

Creo que la cosa está muy lejos aún.
Título: Re:STEM
Publicado por: pollo en Enero 08, 2021, 12:06:44 pm

Los sistemas inteligentes más básicos deberían empezar por tener una cierta voluntad no basada en aleatoriedad.

Esta imposibilidad se intenta salvar (desde la informática) con el método de ensayo-error, como si un ciervo recién nacido necesitara ensayar como comer, como beber agua, o como escapar de un lobo.

Y si ahora estas pensando que el cervatillo tiene pre-programadas esas acciones en su cerebro, entonces estás diciendo que su programación es evolutiva e inherente, por lo tanto está desde antes del nacimiento, lo cual significa que también lo está en los humanos, y entonces Platón tendría razón y Dios existe.

Ahí has hecho una serie de inferencias que no se justifican.

Los sistemas inteligentes, dependen siempre de qué entendamos por inteligencia. En este caso no estaríamos hablando de IA general y por tanto esa voluntad no es necesaria. Sólo es necesario que la máquina tenga información suficiente como para realizar la tarea. En este caso, "información" es en un sentido amplio, pero una máquina que dobla ropa no necesita tener curiosidad, sólo necesita saber cómo funciona la física e identificar con lo que está operando. La cuestión es si se puede hacer un sentido común parcial (acotado a un problema) sin utilizar algún tipo de experiencia. Mi conjetura es que sí, porque eso ya existe en algunos ejemplos, a niveles simples, pero existe (por ejemplo, hay robots que aprenden por sí mismos a navegar por ciertos lugares).

Si hablasemos de IA general, es casi seguro que esa máquina necesitaría experimentar la realidad para poder comprenderla a un nivel de abstracción suficiente, pero entonces yo conjeturo que tendría las mismas (o similares) limitaciones que nuestra inteligencia. Ahí se aplicaría lo que tú comentas.

En cuanto a la segunda, es obvio que hay una preprogramación biológica en todos los seres vivos: todos tienen instintos y todos tienen reflejos, nosotros incluidos, y que nadie nos enseña. Eso no implica en absoluto la existencia de Dios (¿?¿?). Esos instintos se han desarrollado evolutivamente a base de interacciones exitosas y fracasadas con el entorno, y están codificadas en el ADN (el famoso ADN "basura", que al final resultó no serlo). Quienes no tenían estos instintos, según se fue complicando la carrera armamentística evolutiva, iban quedando atrás. Obviamente, el reforzamiento de estos comportamientos a escala evolutiva tuvo que ser muy largo, complejo y progresivo, pero tuvo necesariamente que estar presente en las primeras etapas de la evolución, porque es compartido por una cantidad enorme de especies pluricelulares.

Hay que darse cuenta de que la línea entre el automatismo y el instinto es muy difusa. Las células no tienen instintos, son demasiado simples, lo que hacen es explicable desde la pura mecanicidad de la física y la química. Llega un nivel de complejidad del sistema en el que esa mecanicidad se ve influida por su propia complejidad y empiezan a aparecer fenómenos emergentes, y ahí es cuando empieza a cambiar el nivel de abstracción (el paso del mecanismo al instinto). Esos instintos son los que sirven como base (tanto en el día a día como al nacer) para mantenernos vivos y/o desarrollar comportamientos más complejos: todos tenemos reflejos que intentan evitar el dolor, todos sabemos succionar un pecho, etc.

Los instintos a su vez se generalizan y empiezan a dar lugar a comportamientos sociales, etc. Cada vez se sube un escalón en complejidad y posiblemente en abstracción. No deja de ser curioso que nosotros mismos somos cuerpos hechos de cuerpos (microsópicos), y vidas hechas de otras vidas. Sin embargo nosotros controlamos la máquina sólo en aspectos muy abstractos (que sería básicamente el movimiento muscular y el pensamiento consciente con lo que conlleva), la mayor parte de nuestro sistema es automático (no controlamos el hígado conscientemente, ni manejamos los glóbulos rojos uno a uno, por decir una chorrada), incluso los movimientos musculares tienen "interrupciones" (reflejos) que escapan al control directo. Las emociones son instintivas, nadie nos enseña a tenerlas. Son una "preprogramación", pero muy al contrario que un programa informático, es un programa "blando", no es obligatorio seguirlo, o puede seguirse parcialmente, y de hecho es variable en cada individuo.

Todo este rollo es para decir que la preprogramación biológica no implica nada más allá, y que esta preprogramación es necesaria pero parcial. Uno puede ir contra sus instintos si lo cree conveniente, y de hecho ocurre todo el tiempo (la educación es eso de hecho). La evolución no te dice quién eres, sino que te marca unas líneas generales y dentro de estas hay infinitos factores que pueden variar o que están sin determinar.
Título: Re:STEM
Publicado por: CHOSEN en Enero 08, 2021, 14:47:38 pm
Gracias pollo.
Estoy de acuerdo en todo.
Cuando hablo de inteligencia siempre me refiero a la general o abstracta ya que la otra sería automatización de tareas, aunque profesionalmente yo también me he referido a la automatización y robótica compleja en términos de inteligencia ::) pero "asumiendo" que realmente no lo era.

Sería interesante saber si las células que trabajan sin que nosotros seamos conscientes tienen algún grado de inteligencia, o son solamente autómatas biológicos -y por lo tanto sin inteligencia-.


Lo de Dios es un salto extremo  :biggrin: pero si el cervatillo nace sabiendo lo que es comer y escapar de un lobo, incluso sin haber visto un lobo jamás en su vida, es porque de alguna forma (evolutiva) sabe que el lobo se lo quiere/puede comer.
Es decir, el concepto o idea de lobo, siquiera en sentido abstracto, existe en su cerebro o en sus células de forma anterior a su nacimiento, siendo un feto.

Si extrapolamos al ser humano, es fácil ver que igualmente podemos tener la idea de "lobo" (o depredador) de forma innata.
La pregunta es si de forma innata tenemos también la idea de hogar, vaso, silla/asiento, herramienta o cuchara. Lo cual nos indicaría que las esencias de las cosas existen por sí mismas y no dependen de nosotros.
Quien, como y cuando las pone en nuestro cerebro lleva irremediablemente a la idea de Dios. No hablo del Dios cristiano, y no se si fue Platón o Sócrates quienes empezaron con la historia que dura hasta hoy, solo quiero que se entienda que desde este punto de vista el concepto de INTELIGENCIA no creo que tenga tanto que ver con la ingeniería como actualmente se hace ver.

Título: Re:STEM
Publicado por: Derby en Enero 08, 2021, 16:34:51 pm
https://sciencebusiness.net/news/new-digital-partnerships-promote-europes-push-technology-sovereignty

Citar
New digital partnerships to promote Europe’s push for technology sovereignty

Five public-private research partnerships in digital technologies aim to reduce dependence on foreign products and instil ‘European values’ in areas such as artificial intelligence and robotics
Título: Re:STEM
Publicado por: puede ser en Enero 08, 2021, 20:58:27 pm

Los sistemas inteligentes, dependen siempre de qué entendamos por inteligencia. En este caso no estaríamos hablando de IA general y por tanto esa voluntad no es necesaria. Sólo es necesario que la máquina tenga información suficiente como para realizar la tarea. En este caso, "información" es en un sentido amplio, pero una máquina que dobla ropa no necesita tener curiosidad, sólo necesita saber cómo funciona la física e identificar con lo que está operando. La cuestión es si se puede hacer un sentido común parcial (acotado a un problema) sin utilizar algún tipo de experiencia. Mi conjetura es que sí, porque eso ya existe en algunos ejemplos, a niveles simples, pero existe (por ejemplo, hay robots que aprenden por sí mismos a navegar por ciertos lugares).

Efectivamente, la gran confusión es que se use el término "inteligencia" el cual ni siquiera está definido de forma clara -y mucho menos medible- para los seres humanos.

No soy experto en el tema pero desde fuera me da la impresión que lo único que diferencia a un algoritmo "clásico"  de un algoritmo de IA o "deep learning" es un aspecto: En el algoritmo clásico el programador especifica concretamente qué resultado quiere. En cambio en el algoritmo  de IA/deep learning se permite que el objetivo a lograr sea variable, pero esta variabilidad es sólo aparente.

Por ejemplo el buscador de google puede aprender de sus propias experiencias y variar en los resultados que ofrece. Pero en el fondo sí hay un objetivo (maximizar ingresos mediante una adecuada ratio entre número de visitantes e ingresos por publicidad).

Un robot de Boston Dynamics podría aprende a bailar nuevos pasos y nuevas músicas simplemente copiando lo que ve en una tele. Pero en el fondo el objetivo podría ser imitar lo que ve, o lograr la aprobación de aquellos que visualizan sus bailes, incluso aunque fuera programado para innovar.

En definitiva, el límite a la voluntad de un programa que se autoprograma será siempre la aprobación de aquellos con quien interacciona (por ejemplo su objetivo puede ser aparentar ser humano para superar tests de Turing).

La otra opción sería crear un programa que se autoprograme pero sin ningún objetivo ni posibilidad de supervisión. Pero entonces nadie diría que se creo un ser inteligente, sino que se habría creado un loco, un peligro público, una entidad aleatoria capaz de lo mejor o lo peor sin ningún criterio.

Lo que caracteriza a la inteligencia humana es ser la herramienta privilegiada por nuestra evolución para mantenernos vivos no tanto como individuos sino más bien como miembros de una grupo social (cf. "El gen egoísta" de Dawkins). Por tanto somos inteligentes porque tenemos nuestra herramienta procesadora de información y tomadora de decisiones orientada a un objetivo sencillo y diáfano (objetivo que incluso podría cumplirse con el suicidio del indivíduo en ciertos casos).

Cualquier algoritmo que llamemos "inteligente" sólo lo será como prolongación de nuestra inteligencia, no como inteligencia realmente autónoma por sí.

Quizá debería estudiarse como la ciencia "new age" y visionaria de los años de Carl Sagan cambió la idea de mente como propiedad emergente de la materia (remedo de la distinción clásica alma-cuerpo) por la de inteligencia como propiedad que pudiera emerger de los algoritmos de las máquinas. Yo no lo veo.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 09, 2021, 15:14:08 pm
Gracias pollo.
Estoy de acuerdo en todo.
Lo mismo digo, gracias tanto a pollo como a CHOSEN por ayudar a centrar un poco el debate (el problema que tienen a veces los posts de CHOSEN es que aborda tantos temas que se hace muy difícil contestar en un único post ya que muchas de las ideas merecen posts independientes, pero, al final, las ideas más interesantes aparecen de forma recurrente así que, al final, se acaban abordando antes o después).

Cuando hablo de inteligencia siempre me refiero a la general o abstracta ya que la otra sería automatización de tareas, aunque profesionalmente yo también me he referido a la automatización y robótica compleja en términos de inteligencia ::) pero "asumiendo" que realmente no lo era.
La ambigüedad inherente a los lenguajes humanos tiene sus ventajas y sus inconvenientes, permite expresar ideas complejas con pocos bits de información a costa de que, en muchas ocasiones, toque "rebobinar" en una conversación para resolver alguna de esas ambigüedades que han impedido transmitir correctamente una idea.

Citar
Sería interesante saber si las células que trabajan sin que nosotros seamos conscientes tienen algún grado de inteligencia, o son solamente autómatas biológicos -y por lo tanto sin inteligencia-.
Las células son simples autómatas, es cierto que las bacterias (https://es.wikipedia.org/wiki/Bacteria) son animales unicelulares y son capaces de realizar funciones "básicas" como: adquirir nutrientes, moverse (utilizando flagelos -segundo vídeo- u otros mecanismos) y, por supuesto, reproducirse mediante división celular (ver tercer vídeo).

Como no es fácil de asimilar, les recomiendo que vean el siguiente vídeo en el que en el punto 1:15 (https://youtu.be/wJyUtbn0O5Y?t=75)  se puede ver a una kinesina (https://es.wikipedia.org/wiki/Kinesina) "caminar" por un microtúbulo (https://es.wikipedia.org/wiki/Microt%C3%BAbulo) dentro de una célula.

(https://i.imgur.com/QE3RTHv.jpg) (https://www.youtube.com/watch?v=wJyUtbn0O5Y)
The Inner Life of the Cell (https://www.youtube.com/watch?v=wJyUtbn0O5Y)

Al verlo uno se da cuenta de que lo que Richard Feyman intentaba explicar en su famosa conferencia: There's Plenty of Room at the Bottom (https://en.wikipedia.org/wiki/There%27s_Plenty_of_Room_at_the_Bottom).

Desde aquella famosa "fotografía"  de 1989 en la que científicos de IBM demostraron que era posible manipular átomos individualmente reordenando 35 átomos de xenón sobre un substrato de cristal enfriado de níquel para formar las letras "IBM":

(https://i.imgur.com/wcIaAy0.gif)

uno de los objetivos en el campo de la ingeniería ha sido el diseño de máquinas moleculares al estilo de las que ha creado la naturaleza a lo largo de 4.500 millones de años (que es el tiempo que los científicos estiman que lleva evolucionando la vida en la Tierra).

(https://i.imgur.com/IN5HUby.jpg) (https://www.youtube.com/watch?v=B7PMf7bBczQ)
Bacterial flagellum (https://www.youtube.com/watch?v=B7PMf7bBczQ)

Si nunca han visto un vídeo de Drew Berry, les animo a ver este de Veritasium en el que se puede ver como la encima helicasa (https://es.wikipedia.org/wiki/Helicasa) (que no es sino una máquina molecular) realiza una copia de un fragmento de ADN (fíjense que una de las dos hebras se tiene que copiar "al revés" con la complejidad extra que ello implica) así como el proceso mediante el cual se produce la mitosis en una célula.

(https://i.imgur.com/GnrrXS8.jpg) (https://www.youtube.com/watch?v=X_tYrnv_o6A)
Your Body's Molecular Machines (https://www.youtube.com/watch?v=X_tYrnv_o6A)

Lo de Dios es un salto extremo  :biggrin: pero si el cervatillo nace sabiendo lo que es comer y escapar de un lobo, incluso sin haber visto un lobo jamás en su vida, es porque de alguna forma (evolutiva) sabe que el lobo se lo quiere/puede comer.
Es decir, el concepto o idea de lobo, siquiera en sentido abstracto, existe en su cerebro o en sus células de forma anterior a su nacimiento, siendo un feto.

Si extrapolamos al ser humano, es fácil ver que igualmente podemos tener la idea de "lobo" (o depredador) de forma innata.
La pregunta es si de forma innata tenemos también la idea de hogar, vaso, silla/asiento, herramienta o cuchara. Lo cual nos indicaría que las esencias de las cosas existen por sí mismas y no dependen de nosotros.
Quien, como y cuando las pone en nuestro cerebro lleva irremediablemente a la idea de Dios. No hablo del Dios cristiano, y no se si fue Platón o Sócrates quienes empezaron con la historia que dura hasta hoy, solo quiero que se entienda que desde este punto de vista el concepto de INTELIGENCIA no creo que tenga tanto que ver con la ingeniería como actualmente se hace ver.
La idea del "lobo" en los cervatillos evidentemente es innato, está codificada en los genes, la evolución se ha encargado de ir incorporando en los genes aquellos mecanismos que mejoraban la supervivencia de una especie y, entre esas ventajas está la de ser capaces de huir de los depredadores sin tener que "pensar" en ello.

Uno de los ejemplos más claros (y más divertidos), lo podemos observar con los gatos y los pepinos:

(https://i.imgur.com/Lj48UaY.jpg) (https://www.youtube.com/watch?v=cNycdfFEgBc)
Cats scared of Cucumbers Compilation - Cats Vs Cucumbers - Funny Cats (https://www.youtube.com/watch?v=cNycdfFEgBc)

No sabe exactamente qué pasa en el cerebro de un gato cuando ve un pepino antes de que se mande un impulso nervioso a sus músculos para saltar alejándose de él lo más rápido posible (probablemente en ese tiempo solo llegue a "ver" una mancha verde alargada), pero salir corriendo en vez de pararse a anlizar en detalle si es objeto verde alargado es un pepino, una serpiente o cualquier otra cosa, ha hecho que los gatos que huían aterrados de ese objeto verde alargado hayan pasado sus genes a las siguientes generaciones, mientras que, los que se quedaban a investigar, seguramente no.

Saludos.
Título: Re:STEM
Publicado por: Maloserá en Enero 09, 2021, 18:14:45 pm
...
No sabe exactamente qué pasa en el cerebro de un gato cuando ve un pepino antes de que se mande un impulso nervioso a sus músculos para saltar alejándose de él lo más rápido posible (probablemente en ese tiempo solo llegue a "ver" una mancha verde alargada), pero salir corriendo en vez de pararse a anlizar en detalle si es objeto verde alargado es un pepino, una serpiente o cualquier otra cosa, ha hecho que los gatos que huían aterrados de ese objeto verde alargado hayan pasado sus genes a las siguientes generaciones, mientras que, los que se quedaban a investigar, seguramente no.

Saludos.

No tenía ni idea de lo de los gatos y el pepino. Me hizo gracia porque cuando estábais hablando de equilibrio, movimiento y todo eso siempre se me venían a la cabeza los gatos. La velocidad y precisión que tienen moviéndose.

Hay un momento espectacular en el vídeo de los gatos. Al principio, más o menos 00:14 en la grabación. El gatos ve el pepino, salta hacia atrás y 'rebota' en la puerta que tiene detrás para esquivarlo. Sin ver atrás. Todo lo que hay detrás de ese movimiento, una especie de instintivo análisis de riesgo, cálculo de la propia fuerza, memoria espacial, geometría y si me apuras trigonometría y cálculo diferencial. Todo inmediatamente activado por un instante de miedo.
Título: Re:STEM
Publicado por: Derby en Enero 10, 2021, 09:40:38 am
https://www.theverge.com/2021/1/7/22212938/wifi-6e-rollout-starting-2021-smartphones-tvs-laptops-vr-routers (https://www.theverge.com/2021/1/7/22212938/wifi-6e-rollout-starting-2021-smartphones-tvs-laptops-vr-routers)

Citar
Wi-Fi’s biggest upgrade in decades is starting to arrive

Wi-Fi 6E devices are now being certified

Wi-Fi is about to get a lot better. Many of this year’s new phones, laptops, TVs, routers, and more will come with support for Wi-Fi 6E, a new upgrade to Wi-Fi that’s essentially like expanding your wireless connection from a two-lane road to an eight-lane highway. It’s the biggest upgrade to Wi-Fi in 20 years, and connections should be faster and a lot more reliable because of it.
Título: Re:STEM
Publicado por: pollo en Enero 10, 2021, 12:14:24 pm
https://www.theverge.com/2021/1/7/22212938/wifi-6e-rollout-starting-2021-smartphones-tvs-laptops-vr-routers (https://www.theverge.com/2021/1/7/22212938/wifi-6e-rollout-starting-2021-smartphones-tvs-laptops-vr-routers)

Citar
Wi-Fi’s biggest upgrade in decades is starting to arrive

Wi-Fi 6E devices are now being certified

Wi-Fi is about to get a lot better. Many of this year’s new phones, laptops, TVs, routers, and more will come with support for Wi-Fi 6E, a new upgrade to Wi-Fi that’s essentially like expanding your wireless connection from a two-lane road to an eight-lane highway. It’s the biggest upgrade to Wi-Fi in 20 years, and connections should be faster and a lot more reliable because of it.
Siempre que te cambien el router y tu aparato sea compatible, supongo. O sea, que hasta dentro de bastante tiempo.
Título: Re:STEM
Publicado por: Derby en Enero 23, 2021, 08:03:35 am
https://www.weforum.org/reports/mapping-tradetech-trade-in-the-fourth-industrial-revolution (https://www.weforum.org/reports/mapping-tradetech-trade-in-the-fourth-industrial-revolution)

Citar
Mapping TradeTech: Trade in the Fourth Industrial Revolution

TradeTech, or the set of technologies and innovations that enable trade to be more efficient, inclusive, and equitable, is fundamental to harnessing the innovations of the Fourth Industrial Revolution to support the public good. Yet the incorporation of technologies in trade could result in unintended consequences that should be addressed to ensure TradeTech works for all companies regardless of their size, and for all countries regardless of their level of development. This report aims to shed light on the landscape of emerging trade technologies and consider the opportunities and challenges for each, ranging from AI to IoT to 3D printing.


http://www3.weforum.org/docs/WEF_Mapping_TradeTech_2020.pdf (http://www3.weforum.org/docs/WEF_Mapping_TradeTech_2020.pdf)
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 24, 2021, 20:57:24 pm
Citar
Así es el tren de levitación magnética chino que viajará a 800 km/h (https://es.gizmodo.com/asi-es-el-tren-de-levitacion-magnetica-chino-que-viajar-1846089997)
Bradley Brownell / 2021-01-19

(https://i.imgur.com/Is9GdaL.jpg)

Hazte a un lado, Hyperloop. Ya eras obsoleto antes de que fueras una idea soñada. Los trenes de levitación magnética son y significativamente menos costosos de producir, ya que no tienen que viajar dentro de un tubo de vacío. China está explorando vías para aumentar la velocidad de sus trenes maglev, ya que es un país muy grande y quiere mover a las personas de manera más eficiente. Mediante el uso de superconductores de alta temperatura, investigadores de la Universidad Jiaotong del suroeste de China probaron un prototipo en una pista de prueba a una velocidad de hasta 620 kilómetros por hora. La esperanza es que algún día alcance los 800 kilómetros por hora.

El objetivo es viajar en tren entre Beijing y Shanghái en menos de 3 horas. Para poner el trayecto en contexto, son casi 1300 km y lleva más de 12 horas hacerlo en automóvil, o 2 horas volando.

Al hacer circular nitrógeno líquido a través de las vías para sobreenfriar el campo magnético a -200 ºC, el tren se vuelve mucho más eficiente. También se dice que el coste de este proceso es 1/50 del coste de usar helio líquido, que se emplea tradicionalmente para una conductividad aún más fría de alrededor de -270 ºC. Aparentemente, este tren usa un imán estático muy fuerte que mantiene el tren en suspensión sin requerir más energía eléctrica, utilizando la conductividad solo para el movimiento hacia adelante, lo que lo hace más eficiente que los trenes de levitación magnética tradicionales.

China ya tiene la red ferroviaria de alta velocidad más amplia. Abarca 37.000 kilómetros de vías. El primer tren de levitación magnética del país comenzó a operar en 2003. Los trenes más rápidos generalmente superan los 400 kilómetros por hora, y Japón opera algunos en pistas de prueba a más de 560 kilómetros por hora. Está previsto que el tren de la serie L0 de Tokio a Osaka funcione a 500 kilómetros por hora con pasajeros a bordo, aunque esta línea aún no se ha terminado.

(https://i.imgur.com/NYgKIHw.jpg) (https://www.youtube.com/watch?v=ihSPEWyTRwk)
China unveils state-of-the-art maglev train prototype designed to travel at 620km/h (https://www.youtube.com/watch?v=ihSPEWyTRwk)

La prueba de 620 kilómetros por hora realizada en Chengdu ciertamente supera todo lo visto hasta ahora. Es probable que pasen al menos varios años antes de que el maglev superconductor SJU sea viable para el transporte comercial, pero es un gran paso en la dirección correcta.

Recuerda eso cuando veas cápsulas de prueba del Hyperloop (https://es.gizmodo.com/500-metros-en-15-segundos-hyperloop-virgin-prueba-con-1845629991) viajando a poco más de 160 kilómetros por hora. ¿Por qué perder el tiempo con un método peligroso y no probado cuando la tecnología actual ya es capaz de hacerlo casi cuatro veces más rápido?
Saludos.
Título: Re:STEM
Publicado por: CHOSEN en Enero 25, 2021, 16:30:25 pm
Esa noticia es FAKE.
No obstante Cadavre te agradezco MUCHO el vídeo, ya lo había visto porque vengo de familia ferroviaria (abuelo, padre, tios, primos...) pero es tan falso como el hiperloop.

¿Me puedo desahogar?
La dinámica de la prensa ya es insoportable.

En el propio vídeo se ve que es una propuesta de diseño.
En la segunda parte del vídeo se ven los 5 módulos, 5 MÓDULOS de repulsión refrigerados con nitrógeno debajo del tren. No es que no se vean mas por la toma. Es que se ve que son solamente 5 módulos aislados en el suelo, que son los que se necesitan para mantener la maqueta en levitación.
De hecho, si miramos a la derecha de la imagen vemos que la maqueta está en un final de via y no se mueve mas que los escasos centímetros que permiten esos 5 módulos.
-en el segundo 36 del vídeo-

Además que no se puede (se puede pero no es viable) mantener una red viaria con nitrógeno a -200ºC. Si todos los que estamos aqui somos de STEM no merece la pena perder ni un segundo en explicar porqué.

Los chinos aprenden demasiado rápido de los usos y costumbres occidentales  :biggrin:


Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 26, 2021, 00:25:22 am
Esa noticia es FAKE.

Es evidente que con esa noticia los chinos estaban buscando publicidad, como bien dice usted:

Los chinos aprenden demasiado rápido de los usos y costumbres occidentales  :biggrin:

Sobre la noticia, he de reconocer que leí la noticia de Gizmodo en diagonal, si hubiese leído esto:

Citar
al hacer circular nitrógeno líquido a través de las vías para sobreenfriar el campo magnético a -200 ºC, el tren se vuelve mucho más eficiente.

ni me hubiese molestado en hacer el copy/paste.

Ahora, con calma, y tirando un poco más del hilo, he llegado a la que, posiblemente, fuera el artículo en el que se han basado webs como Gizmodo (el artículo del post anterior) o Xataka (https://www.xataka.com/vehiculos/china-muestra-al-mundo-su-nuevo-prototipo-tren-maglev-620-km-h-busca-ser-veloz-mundo) para hacerse eco del anuncio chino en CGTN (China Global Television Network) un medio que opera desde Beijing que, evidentemente, estará sujeto al control del gobierno a la hora de publicar cualquier noticia (*)

China unveils maglev train prototype with designed speed of 620 km/h (https://news.cgtn.com/news/2021-01-14/China-unveils-maglev-train-prototype-with-designed-speed-of-620-km-h-X36Lf2fBAI/index.html)

(*) El artículo contiene un detalle muy sospechoso, casi a la altura del de "hacer circular nitrógeno líquido a través de las vías" de nuestro periodista patrio)

Citar
"The HTS technology can make the train float without electricity, and it can be moved with just one hand," said Deng.

At the site, a reporter succeeded in moving the 12-tonne levitated locomotive with one finger.
El artículo, a su vez, hace referencia a otro artículo del mismo medio publicado el 24 de junio de 2020:

China's 600 km/h high-speed maglev prototype completes successful trial run (https://news.cgtn.com/news/2020-06-21/China-s-600-km-h-high-speed-maglev-completes-trial-run-RvueeEECTm/index.html)

que contiene algo más de información.

En cualquier caso, y aceptando las suspicacias de Chosen al respecto del artículo, la construcción de un tren de levitación magnética basado en materiales superconductores es algo real como se puede ver en la página web de SCMaglev (https://www.savagevision.com/scmaglev), que es como se denomina al sistema de levitación magnética basado en superconductores creado por la Central Japan Railway Company (ver entrada a SCMaglev (https://en.wikipedia.org/wiki/SCMaglev)  en la Wikipedia) y que ha creado hasta la fecha varios modelos de tren (el último es el L0 Series (https://en.wikipedia.org/wiki/L0_Series)) que disponen de unos bogies (https://es.wikipedia.org/wiki/Bogie) que utilizan imanes superconductores para lograr la levitación del tren:

(https://i.imgur.com/89wfS35.jpg)
https://en.wikipedia.org/wiki/SCMaglev (https://en.wikipedia.org/wiki/SCMaglev)

Entiendo que este tipo de proyectos buscan el mismo objetivo que se persigue con las baterías: que llegue un momento en el que los avances tecnológicos los hagan rentables.

Al igual que ocurre con las baterías, en las que parámetros como: la densidad energética, el peso y el coste van mejorando en cada generación, con los materiales superconductores ocurre exactamente lo mismo, hay una carrera cientifico-tecnológica imparable por lograr la superconductividad a temperaturas cada vez más altas a presiones razonables:

(https://i.imgur.com/zgSPnlZ.png)
https://en.wikipedia.org/wiki/High-temperature_superconductivity (https://en.wikipedia.org/wiki/High-temperature_superconductivity)

Saludos.

P.D.

Por si tienen curiosidad, les dejo un par de vídeos relacionados con el tema:

El primero es, en mi opinión, uno de los mejores para entender las bases físicas de la superconductividad:

(https://i.imgur.com/Yz5t2r5.jpg) (https://www.youtube.com/watch?v=8GY4m022tgo)
Quantum Locking Will Blow Your Mind—How Does it Work? (https://www.youtube.com/watch?v=8GY4m022tgo)

El segundo es más una curiosidad que surje de combinar la superconductividad con una cinta de Möbius:

(https://i.imgur.com/52aHCPS.jpg) (https://www.youtube.com/watch?v=Vxror-fnOL4)
Superconducting Quantum Levitation on a 3π Möbius Strip (https://www.youtube.com/watch?v=Vxror-fnOL4)
Título: Re:STEM
Publicado por: pollo en Enero 30, 2021, 15:05:18 pm
Esa noticia es FAKE.
No obstante Cadavre te agradezco MUCHO el vídeo, ya lo había visto porque vengo de familia ferroviaria (abuelo, padre, tios, primos...) pero es tan falso como el hiperloop.

¿Me puedo desahogar?
La dinámica de la prensa ya es insoportable.

En el propio vídeo se ve que es una propuesta de diseño.
En la segunda parte del vídeo se ven los 5 módulos, 5 MÓDULOS de repulsión refrigerados con nitrógeno debajo del tren. No es que no se vean mas por la toma. Es que se ve que son solamente 5 módulos aislados en el suelo, que son los que se necesitan para mantener la maqueta en levitación.
De hecho, si miramos a la derecha de la imagen vemos que la maqueta está en un final de via y no se mueve mas que los escasos centímetros que permiten esos 5 módulos.
-en el segundo 36 del vídeo-

Además que no se puede (se puede pero no es viable) mantener una red viaria con nitrógeno a -200ºC. Si todos los que estamos aqui somos de STEM no merece la pena perder ni un segundo en explicar porqué.

Los chinos aprenden demasiado rápido de los usos y costumbres occidentales  :biggrin:
No sé de donde sacas en general la inviabilidad, Hay maglevs que llevan funcionando años ya, y salvo que estén usando tecnología alienígena, no les queda otra que refrigerar los superconductores. Lo que pasa es que ponen los superconductores en el tren y los imanes en la vía, que es mucho más barato que al revés.

La vía es la que va cambiando selectivamente la polaridad de los electroimanes para propulsar el tren, si no recuerdo mal.

Unos cuantos en servicio comercial actualmente:
https://www.youtube.com/watch?v=ixIWTVfRZDI (https://www.youtube.com/watch?v=ixIWTVfRZDI)

Otra cosa es que sea viable o rentable en según que sitios, para el caso general probablemente siga siendo mejor el tren de toda la vida. En alta velocidad las ventajas son obvias, a una fracción del coste de pajas mentales como el Hyperloop (aún dentro de lo caro). Para areas como Japón es ideal.
Yo creo que estás muy paranoico.
Título: Re:STEM
Publicado por: CHOSEN en Enero 30, 2021, 17:54:16 pm
Pollo, lo único que digo es que el titular es falso.
"Así es el tren de levitación magnética chino que viajará a 800 km/h"
Tres mentiras en una frase!!!
Mirad el video, la vía termina donde empieza el morro de la maqueta, por eso el plano está cortado. Si eso fuera "algo" lo veríamos en funcionamiento, vamos, digo yo. No lo vemos porque es una carcasa vacía flotando.
Solo digo que es propaganda china servida sin tapujos por la prensa generalista.
Una mentira co-china.
Por lo demás me parece perfecto que se investigue, faltaría mas, mi "queja virtual" va contra el medio de comunicación, no contra los investigadores.

NOTA: El concorde dejó de ser viable en 2003.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 09, 2021, 09:10:21 am
Quizás encajaría mejor en alguno de los hilos del foro dedicado a la energía, pero como entiendo que todavía está en una fase de desarrollo muy preliminar...

Citar
German Institute Develops 'Powerpaste' That Stores Hydrogen Energy At 10x the Density of a Lithium Battery (https://hardware.slashdot.org/story/21/02/08/2244208/german-institute-develops-powerpaste-that-stores-hydrogen-energy-at-10x-the-density-of-a-lithium-battery)
Posted by BeauHD on Monday February 08, 2021 @09:10PM from the clean-energy dept.

A German research organization has developed a magnesium-based "Powerpaste (https://www.fraunhofer.de/en/press/research-news/2021/february-2021/hydrogen-powered-drives-for-e-scooters.html)" with an energy density ten times more than current battery technology (https://hackaday.com/2021/02/06/the-future-of-hydrogen-power-is-paste/). Hackaday reports:
Citar
We've been promised hydrogen-powered engines for some time now. One downside though is the need for hydrogen vehicles to have heavy high-pressure tanks. While a 700 bar tank and the accompanying fuel cell is acceptable for a city bus or a truck, it becomes problematic with smaller vehicles, especially ones such as scooters or even full-sized motorcycles. The Fraunhofer Institute wants to run smaller vehicles on magnesium hydride in a paste form that they call POWERPASTE.

The idea is that the paste effectively stores hydrogen at normal temperature and pressure. At 250C, the paste decomposes and releases its hydrogen. While your motorcycle may seem hot when parked in the sun, it isn't getting quite to 250C. Interestingly, the paste only provides half the available hydrogen. The rest is from water added start a reaction to release the hydrogen. Fraunhofer claims the energy density available is greater than that of a 700 bar tank in a conventional hydrogen system and ten times more than current battery technology.

One thing that's attractive is that the paste is easy to store and pump. A gas station, for example, could invest $20-30,000 and dispense the paste from a metal drum to meet low demand and then scale up as needed. A hydrogen pumping setup starts at about $1.2 million. Fraunhofer is building a pilot production plant that will produce about four tons of the material a year.
Es de sobra conocido lo ineficiente que es la producción de hidrógeno, pero una densidad energética diez veces superior a la de las baterías actuales puede tener nichos de mercado interesantes.

Para ponerlo en perspectiva, siempre conviente tener en mente la siguente tabla del artículo sobre densidad energética de la Wikipedia:

(https://i.imgur.com/IRVXWhS.png)
Densidad de energía (https://es.wikipedia.org/wiki/Densidad_de_energ%C3%ADa)

Saludos.
Título: Re:STEM
Publicado por: Maloserá en Febrero 09, 2021, 10:26:18 am
Un artículo de nuestro querido Ambrose, del Telegraph. Normalmente los cuelgo en el hilo ppcc. Ni idea de si lo que habla tiene fundamento. Reconozco que el constante 'semos los mejores' es muy cargante, pero normalmente se curra los artículos.

The possibilities for the UK’s net-zero drive are tantalising
It may sound far-fetched, but research in Cumbria has found a way of creating power from radioisotopes


AMBROSE EVANS-PRITCHARD

https://www.telegraph.co.uk/business/2021/02/07/britains-energy-future-lies-little-box-tricks/ (https://www.telegraph.co.uk/business/2021/02/07/britains-energy-future-lies-little-box-tricks/)

Imagine a nuclear battery in a little box that uses decaying isotopes to generate cheap and clean electricity around the clock for decades with no combustion, fission, or noise. It just sits silently and emits constant power.

This far-fetched idea is becoming real. Vaulting advances in materials sciences are unlocking technologies that radically change the cost calculus of radioisotopes. Companies are springing to life with prototypes that could be on the market before the next general election.

As it happens, the UK is the world leader in the rarified field of isotope batteries. A British-Australian start-up with research operations in Cumbria has found a way to harness gamma rays from the radioactive decay of cobalt-60. Infinite Power thinks it can cut costs to levels that take your breath away. “It is the cheapest source of electricity on the planet,” says Robert McLeod, the chief executive.

The batteries can be used for anything from charging posts for electric vehicles to full-sized power plants for cities, generating cheap baseload electricity. This power can be used to balance the grid as intermittent wind and solar become the backbone of the system, but also switch to the production of “green” hydrogen from electrolysis at off peak-times.

Infinite Power is working with the UK National Institute for Advanced Materials, a hub of leading universities known as the Royce Institute. These are part of a flourishing British ecosystem in radioisotope technology. In 2019 the National Nuclear Laboratory launched an Americium battery on behalf of Nasa that can generate power for hundreds of years in deep space, the first of its kind in the world.

Scientists at the Culham Centre of Fusion Energy are working on tritium (hydrogen-3) and carbon-14 to make ‘diamond batteries’ from spent nuclear fuel. They have linked up with the University of Bristol on a man-made diamond that harvests the energy from carbon-14 isotopes and promises to generate power on a “near infinite basis”.   A spin-off company called Arkenlight is working on the first commercial prototypes for microbatteries. “Ultimately we want to be producing millions of devices annually. It’s an extremely exciting project,” said Prof Tom Scott, the leader of the project.

Infinite Power is eyeing different segments of the market, convinced it can outcompete fossil-fuel plants for electricity on a gigawatt scale. The technology works in much the same way as a solar panel except that the energy does not come from the sun. It comes from the decaying isotope. The normal vibration process in solar cells instead converts beta, X-ray, and above all gamma waves from cobalt-60 into electricity. “There is much more energy in a gamma ray,” said Mr McLeod.

Mr McLeod estimates the “levelised cost” of electricity at $7-17 per megawatt hour, cheaper than thin-film solar ($36-44), gas combined cycle ($44-68), or nuclear ($118-192), once scale is achieved. The capital cost is under $300,000 per megawatt, a tiny fraction of the $6,500,000 average cost for the latest nuclear reactors. If the company can deliver anything close to this cost the technology offers tantalising possibilities for the UK’s net-zero drive, and for wider global use. There has been a surge of interest from American investors since the Biden administration swept into Washington on an electrification mission.

Cobalt-60 is relatively safe with a half-life of 5.2 years, though you would not want it in your kitchen. The small pencil-sized sticks are placed in tubes, protected by 11in (30cm) steel in boxes. They are sealed in cement buildings when scaled up for serious power. They do not require the fortress architecture that make nuclear fission plants so expensive. The batteries could be used in small power units in Sark, or rural Africa, or in warehouse-size power plants of 100 megawatts or larger for industrial hubs. “It is modular so we just add more boxes. Our plan is a one gigawatt plant within two years,” said Mr McLeod. The company has signed a letter of intent to build its first 30 megawatt plant in the UK.

Separating hope from reality is inherently difficult with new technologies. A bandwagon effect is creeping in. One California start-up is raising funds to develop “a smartphone that you never charge” and EVs that never need recharging using a nano-diamond battery, allegedly at minimal cost. Sceptical British scientists roll their eyes.

The UK government has jumped on Infinite Power’s cobalt-60 battery to help solve an immediate conundrum: how to switch from combustion engines to EVs without breaking the grid, already under transition stress as it goes from being a 20th Century fossil-based system to a 21st Century flexible system of distributed green power.

The UK would in theory have to double its total generation to decarbonise just half of all road transport traffic, although a static analysis exaggerates the apparent difficulty: EV car batteries would themselves be part of the solution by charging at night and releasing power back to the grid at peak times for an arbitrage profit. Nevertheless, cobalt-60 is the answer to immediate prayers at the Department of Business, Energy, and Industrial Strategy. “We’ll be rolling out the first EV charging points within twelve months. The UK government is extremely positive. They see it as a way to promote export-led industry and rebuild trade links with Commonwealth countries,” said Mr McLeod.

Britain has a strong incentive to make use of spent nuclear fuel. It is sitting on the world’s largest stockpile of radioactive residue at Sellafield, listed today on government books as a giant liability but with the potential to become an asset instead.

Dr Tim Tinsely, head of the NNL’s radioisotope programme, said nuclear batteries kill two birds with one stone.“You would be repurposing a waste product into something of value, and contributing to a net-zero agenda,” he said.

The raw material for cobalt-60 is cobalt-59. This comes from mines in Canada, Australia, Zambia, and more controversially from the Congo. This standard form of cobalt is not scarce but nor is it cheap. It currently fetches $45,700 per metric tonne on the London Metal Exchange, driven up by the voracious needs of lithium car batteries. Demand will settle down as ways are found to replace the metal with nickel. Tesla is working on cobalt-free batteries. The larger issue is that cobalt-59 has to be converted in an industrial reactor by bombarding it with neutrons. There are 85 such reactors in Europe, some already producing isotopes for X-rays, scanners, smoke detectors, measuring devices, and so on. Others are scattered all over the world. They are crying out for business, especially in ex-Soviet states such as Armenia and Kazakhstan.

Mr McLeod said the isotope can be recycled again and again by putting it back in a reactor every ten years. By then the isotopes have partly decayed into nickel. There are almost no operating costs once the system is up and running.

Dr Tinsley said it was unclear whether there is a big enough global supply of cobalt-60 to produce power at commercial scale. Infinite Power says the market is deeper than it looks. “We can easily build a one gigawatt plant within current supply,” said McLeod.

Once the technology takes off, demand creates its own supply. It becomes commercially worthwhile to build small industrial reactors just to make the cobalt-60 round-the-clock. That at least is the idea.

Mr McLeod said the radioisotope technology has lain dormant because the world was not ready. He compared it to gasoline in the late 19th Century before the combustion engine. It was deemed useless by early oil drillers and tipped into rivers in Pennsylvania. A single twist in technology turned waste into liquid gold. What is clear is that there are countless technologies emerging across the world that are changing the calculus on CO2 abatement faster than governments, economists, and commentators can keep up.

Britain is the crucible where so many breakthroughs are happening, perhaps because the country never succumbed to the technology luddism of the precautionary principle, and perhaps because the grip of vested interests is relatively weak (the same thing).

The UK may achieve net-zero much sooner than widely-supposed, and at a nice profit.
Título: Re:STEM
Publicado por: Saturio en Febrero 09, 2021, 10:35:55 am
Un artículo de nuestro querido Ambrose, del Telegraph. Normalmente los cuelgo en el hilo ppcc. Ni idea de si lo que habla tiene fundamento. Reconozco que el constante 'semos los mejores' es muy cargante, pero normalmente se curra los artículos.

The possibilities for the UK’s net-zero drive are tantalising
It may sound far-fetched, but research in Cumbria has found a way of creating power from radioisotopes


AMBROSE EVANS-PRITCHARD

https://www.telegraph.co.uk/business/2021/02/07/britains-energy-future-lies-little-box-tricks/ (https://www.telegraph.co.uk/business/2021/02/07/britains-energy-future-lies-little-box-tricks/)


Britain is the crucible where so many breakthroughs are happening, perhaps because the country never succumbed to the technology luddism of the precautionary principle, and perhaps because the grip of vested interests is relatively weak (the same thing).



Bueno que mire a ver cuánto les va a costar lo de Sellafield por eso de no sucumbir al ludismo tecnológico del principio precautorio.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 09, 2021, 11:51:32 am
Se diría que Ambrose ha descubierto la pólvora...

Imagine a nuclear battery in a little box that uses decaying isotopes to generate cheap and clean electricity around the clock for decades with no combustion, fission, or noise. It just sits silently and emits constant power.
Pero, por ejemplo, la NASA lleva usando generadores termoeléctricos de radioisótopos (https://es.wikipedia.org/wiki/Generador_termoel%C3%A9ctrico_de_radiois%C3%B3topos) desde 1961 con diversos fines, siendo, quizás, los ejemplos más conocidos los de las sondas Voyager lanzadas en 1977 (y a las que sus respectivos generadores termoeléctricos de radioisótopos todavía mantienen "con vida") o el rover marciano Curiosity cuyo RTG le permitió "sobrevivir" a las tormentas de arena de 2018 que acabaron con el Oportunity que utilizaba paneles solares para su abastecimiento energético.

Como último ejemplo de usos prácticos de la tecnología tenemos la del rover Perseverance que, si todo va bien, aterrizará en Marte este próximo 18 de febrero a las 21:55 (hora española). Alfredo García (@operadornuclear (https://twitter.com/OperadorNuclear)) publicó hace unos días una infografía fantástica sobre el sistema de alimentación del rover Perseverance en la que incluye todos los datos técnicos relevantes del RTG que lo alimenta:

(https://i.imgur.com/KQw1vjH.jpg)
https://twitter.com/OperadorNuclear/status/1357763285140013060

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 09, 2021, 13:46:38 pm
Citar
Scientists Develop Transparent Wood That Is Stronger, Lighter Than Glass (https://science.slashdot.org/story/21/02/09/0117221/scientists-develop-transparent-wood-that-is-stronger-lighter-than-glass)
Posted by BeauHD on Tuesday February 09, 2021 @05:00AM from the wood-you'd-rather-have dept.

Researchers at the University of Maryland have turned ordinary sheets of wood into transparent material that is nearly as clear as glass (https://www.cbc.ca/radio/quirks/scientists-develop-transparent-wood-that-is-stronger-and-lighter-than-glass-1.5902739), but stronger and with better insulating properties. It could become an energy efficient building material in the future. CBC.ca reports:
Citar
Wood is made of two basic ingredients: cellulose, which are tiny fibres, and lignin, which bonds those fibres together to give it strength. Tear a paper towel in half and look closely along the edge. You will see the little cellulose fibres sticking up. Lignin is a glue-like material that bonds the fibres together, a little like the plastic resin in fibreglass or carbon fibre. The lignin also contains molecules called chromophores, which give the wood its brown colour and prevent light from passing through.

Early attempts to make transparent wood involved removing the lignin, but this involved hazardous chemicals, high temperatures and a lot of time, making the product expensive and somewhat brittle. The new technique is so cheap and easy it could literally be done in a backyard. Starting with planks of wood a metre long and one millimetre thick, the scientists simply brushed on a solution of hydrogen peroxide using an ordinary paint brush. When left in the sun, or under a UV lamp for an hour or so, the peroxide bleached out the brown chromophores but left the lignin intact, so the wood turned white.

Next, they infused the wood with a tough transparent epoxy designed for marine use, which filled in the spaces and pores in the wood and then hardened. This made the white wood transparent. You can see a similar effect by taking that same piece of paper towel, dip half of it in water and place it on a patterned surface. The white paper towel will become translucent with light passing through the water and cellulose fibres without being scattered by refraction. The epoxy in the wood does an even better job, allowing 90 per cent of visible light to pass through. The result is a long piece of what looks like glass, with the strength and flexibility of wood.
The findings have been published in the journal Science Advances (https://advances.sciencemag.org/content/7/5/eabd7342).
Saludos.
Título: Re:STEM
Publicado por: CHOSEN en Febrero 09, 2021, 15:29:58 pm
Muy interesante, pero el problema es que no hay nada más barato (+viable) que coger hidrocarburos con una pala. ¿Que significa?
Llegado el momento, probablemente (seguramente) antes de desplegar esos originales vectores volvamos a ver máquinas de vapor.
https://www.youtube.com/watch?v=WbJxN4mize0 (https://www.youtube.com/watch?v=WbJxN4mize0)
Una motocicleta a vapor. Limitada y artesanal pero viable.

Me imagino una pequeña caldera de pellets "dopados" y la veo infinitamente más asequible (viable) que un motor atómico de termopares, o un desintegrador de magnesio.

Llamadme loco, pero hace 20 años no hubiese creído que viviría para ver colas de kilómetros esperando recibir galletas y un paquete arroz... en Madrid.

Creo que como técnicos muchas veces nos dejamos llevar por las posibilidades. El problema es que todo es posible, pero no todo es viable.
Los vasos comunicantes, esos de los que hablabamos hace 10 años, han terminado por anegar la pujanza occidental. Y últimamente estoy muy pesimista a este respecto.
Título: Re:STEM
Publicado por: R.G.C.I.M. en Febrero 09, 2021, 16:54:37 pm
Nos empiezan muy indirecta y suavemente a decir que debemos prepararnos para vivir con menos, y que China no va a ganar.

China YA HA GANADO.

Ayer probé una moto china. He tenido más de 15. Tiene lo mismo que una premium occidental a MITAD de precio, con pequeñísimas taras de acabado y algo de diseño cutre que a su ritmo están sobrepasadas en 3 años. Tras aranceles. Con dumping o no.

Ahora nos toca esforzarnos a nosotros para igualar y competir.
Pero en lugar esforzarnos mejorando, esforzarnos empeorando.
El GRAN SALTO "ADETRAS".

Sds.
Título: Re:STEM
Publicado por: CHOSEN en Febrero 09, 2021, 17:55:42 pm
Soy un gran aficionado al motor. Aficionado de verdad, no de esos que ven carreras  :biggrin:
Hace aproximadamente 16 años compré mi primer vehículo chino. Una rareza, casi una curiosidad. Lo conseguí matricular, cosa ilógica por aquel entonces, ya que casi me mato con él por los brutales defectos de fábrica, de hecho estoy convencido de que el certificado del fabricante era falsificado.
Bueno, tuve que reconstruirlo entero (puro hobby) para que fuera usable en condiciones mínimas de seguridad... correspondientes a 1960.

Pues 10 años después volví a ver como andaba el mercado, esta vez por una cuestión tangencial (que me llevó a importar un container).
Y comprobé lo que usted comenta.
YA ESTAN AQUÍ.
En apenas 10 años han recorrido 50.
Lo peor es que países como España, sin un entramado empresarial que pueda llevarnos a despuntar en alguno de los eslabones de la cadena de valor, ya estan fuera de juego.
En muchos aspectos nos han ganado jugando al capitalismo.
Son perfectamente capaces de fabricar sistemas duraderos y de calidad. Pero no les interesa. Les interesa que se rompa justo ahí.
Ya están jugando con nuestras normas.
Y pinta fatal.

Como buenos discípulos de la doctrina utilizan los procedimientos de los OKB soviéticos, y contra eso sólo puedes luchar de dos formas: o haces lo mismo, o haces todo lo contrario (USA). Europa está en un punto conservador intermedio. Sin intervenir, pero interviniendo el mercado. Te doy por aquí, pero te quito por allí. Por ejemplo la normativa de modificaciones impide -de facto- montar sistemas de seguridad mejores de los que trae un vehículo de fábrica. Esto (y mas cosas) directamente impide el mercado aftermarket. Miles de empleos cualificados y miles de millones de euros en exportaciones. Casi nada.

Bueno, las ayudas de reconstrucción ecológica serán una muestra de como la burrocracia se va a comer el pastel y no vamos a ser capaces de fabricar ni una puñetera célula solar.
Sino al tiempo.
Título: Re:STEM
Publicado por: Saturio en Febrero 09, 2021, 22:09:02 pm
A ver.

Yo no tengo mucha idea pero el cobalto-60 no parece una muy buena opción.

Por ejemplo el Pu-238 es un emisor alfa.
Podrías tranquilamente hacer coches eléctricos con combustible nuclear sin demasiados problemas (existiría el riesgo de que en el tratamiento del combustible este se pulverizase de tal forma que se pudiese inhalar o ingerir, tanto en la fabricación como en el desguace).
El inconveniente es que el PU-238 se produce con un proceso larguísimo y caro de narices y por eso su uso se restringe a las misiones espaciales que requieren relativamente baja potencia y mucha densidad energética (para no cargar el lanzamiento).

Sin embargo, el Co-60 es un emisor beta y gamma y decae en emisores gamma. Por eso el personal médico que trabaja con él lleva trajes de plomo. No sería muy recomendable conducir un coche al trabajo con una batería de Co-60 y menos aún tratar los residuos de una industria del automóvil alimentada con Co-60. El Co-60 constituye el típico residuo médico peligroso de vida corta.





Título: Re:STEM
Publicado por: wanderer en Febrero 15, 2021, 20:54:47 pm
Una visión crítica de la relación entre la Física Teórica "fundamenta", las Matemáticas y el dispendio de recursos en financiar según qué proyectos:

Citar
Sabine Hossenfelder
física teórica; autora de ‘Perdidos en las matemáticas’

“Gastar más en el acelerador de partículas es tirar el dinero”

https://www.lavanguardia.com/lacontra/20190828/464287900338/gastar-mas-en-el-acelerador-de-particulas-es-tirar-el-dinero.html (https://www.lavanguardia.com/lacontra/20190828/464287900338/gastar-mas-en-el-acelerador-de-particulas-es-tirar-el-dinero.html)

Aunque yo sea matemático, no puedo por menos de estar de acuerdo con ésta señora: el empeño de buscar "la Teoría del Todo", y de financiar algo que desde hace décadas ha entrado en una fase clara de retornos decrecientes, es un dispendio. Además, creo que tanto en Matemáticas como en otras partes de la Física menos "glamurosas", hay infinidad de problemas fundamentales que además son de muchísima mayor relevancia para nosotros. A los físicos teóricos de "altas energías" habría que atarles bien en corto financieramente, y recordarles además esa obsesión suya por las teorías que carecen de cualquier tipo de apoyo empírico sólo porque quedan matemáticamente molonas, no son ni buena Física ni, si me apuran, buena Matemática; si además en la parte que se acerca más a lo empíricamente contrastable, no han sido capaces de producir nada relevante en muchas décadas (el famoso bosón de Higgs es la comprobación empírica de algo predicho hace ya más de sesenta años), el tasarles el presupuesto está más que justificado, máxime cuando es a costa de la financiación de otros proyectos menos molones, pero mucho más baratos, y más productivos.
Título: Re:STEM
Publicado por: wanderer en Febrero 21, 2021, 23:06:17 pm
A Mathematician's Lament:

https://youtu.be/Ws6qmXDJgwU (https://youtu.be/Ws6qmXDJgwU)

En éstos tiempos del moloneo lelo, que también se refleja en querer promocionar las Matemáticas a diestro y siniestro, pero sin apreciar realmente su belleza, aunque insistiendo machaconamente en su utilidad (la cual ciertamente, tiene, y mucha, pero ésa está lejos de ser el eje motor de su extraordinario desarrollo), ésta contribución me ha parecido muy de agradecer. Por lo mismo, lo de meter a las chicas con calzador en las carreras STEM, promocionando la imitación de las personas (eso de "no hay suficientes ejemplos femeninos"), en contra de la absorción de las ideas, del enfrentarse a los retos y fomentando el pensamiento crítico así como el placer estético, sólo puede producir frustración.
Título: Re:STEM
Publicado por: saturno en Febrero 22, 2021, 20:30:58 pm
A Mathematician's Lament:

https: //youtu.be/Ws6qmXDJgwU]https://youtu.be/Ws6qmXDJgwU


https://en.wikipedia.org/wiki/A_Mathematician%27s_Lament (https://en.wikipedia.org/wiki/A_Mathematician%27s_Lament)

http://mysite.science.uottawa.ca/mnewman/LockhartsLament.pdf (http://mysite.science.uottawa.ca/mnewman/LockhartsLament.pdf)

¿Eh?  8)


(Estoy harto de links tweeter, de youtube, de FB y otros multimedia que abren publicidad y últimamente acaban en censura)


Citar
En éstos tiempos del moloneo lelo, que también se refleja en querer promocionar las Matemáticas a diestro y siniestro, pero sin apreciar realmente su belleza, aunque insistiendo machaconamente en su utilidad (la cual ciertamente, tiene, y mucha, pero ésa está lejos de ser el eje motor de su extraordinario desarrollo), ésta contribución me ha parecido muy de agradecer.

Por lo mismo, lo de meter a las chicas con calzador en las carreras STEM, promocionando la imitación de las personas (eso de "no hay suficientes ejemplos femeninos"), en contra de la absorción de las ideas, del enfrentarse a los retos y fomentando el pensamiento crítico así como el placer estético, sólo puede producir frustración.


También está bien introducir retornos de línea,  ;D
Se dice "airear" el texto. Sobre todo en medios electrónicos  8)

Aunque a veces eso subraya la falta de sustancia del contenido, buff. Wanderer, por favor, céntrese más en lo que transmite su saber matemático, y algo menos en decir que lo tiene, para luego comparar con los que no lo tengan.
Lo que hace es como indicar que usa el dedo indice para señalar el horizonte, y luego nos suelta una parrafada sobre la sortija que llevan otros en el anular, Olvidando que no estamos para debates sobre dedos, ni sobre manucura,

(Hoy me he levantado picado, pero llevo un temporada gestando esto. Y creo que voy a estar una temporada más así hasta que se me pase,)

Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 09, 2021, 21:56:55 pm
Citar
Israel, Cyprus and Greece Agree To Link Power Grids Via Subsea Cable (https://hardware.slashdot.org/story/21/03/08/2120254/israel-cyprus-and-greece-agree-to-link-power-grids-via-subsea-cable)
Posted by BeauHD on Monday March 08, 2021 @07:10PM from the record-breaking dept.

An anonymous reader quotes a report from Reuters:
Citar
Cyprus, Greece and Israel on Monday signed an initial agreement to build the world's longest and deepest underwater power cable (https://www.reuters.com/article/idUSKBN2B015M) that will traverse the Mediterranean seabed at a cost of about $900 million and link their electricity grids. The project, called the Euro-Asia interconnector, will provide a back-up power source in times of emergency, said Israeli Energy Minister Yuval Steinitz, who was in Nicosia to sign a memorandum of understanding with his counterparts. Cypriot Energy Minister Natasa Pilides said it marked "a decisive step towards ending the island's energy isolation, and consequently, our dependence on heavy fuels."

The cable will have a capacity of 1,000-2,000 megawatts (MW) and is expected to be completed by 2024, according to Israel's energy ministry. With a length of about 1,500 km and a maximum depth of 2,700 meters, it will be the longest and deepest subsea electricity cable to have ever been constructed, it said. Calling the project a "2,000 mega-watt highway," Pilides said the first stage is expected to be operational within 2025. It will cover three sections of the Mediterranean: some 310 kilometers between Israel and Cyprus, about 900 kilometers between Cyprus and Crete, and about 310 additional kilometers between Crete and mainland Greece. Greek power grid operator IPTO has started construction of the Crete-mainland part, seen concluding by 2023. The Greek operator and Eurasia have been working closely to make sure the two cables link to each other efficiently, an IPTO official said. The European Union has recognized the cable as a "Project of Common Interest", categorizing it as a project it is willing to partly finance.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 09, 2021, 21:59:57 pm
Citar
Tesla Is Plugging a Secret Mega-Battery Into the Texas Grid ([url]https://hardware.slashdot.org/story/21/03/08/2056220/tesla-is-plugging-a-secret-mega-battery-into-the-texas-grid[/url])
Posted by BeauHD on Monday March 08, 2021 @05:10PM from the top-secret dept.

An anonymous reader quotes a report from Bloomberg:
Citar
Elon Musk is getting into the Texas power market, with previously unrevealed construction of a gigantic battery connected to an ailing electric grid that nearly collapsed last month ([url]https://www.bloomberg.com/news/features/2021-03-08/tesla-is-plugging-a-secret-mega-battery-into-the-texas-grid[/url]). The move marks Tesla's first major foray into the epicenter of the U.S. energy economy. A Tesla subsidiary registered as Gambit Energy Storage LLC is quietly building a more than 100 megawatt energy storage project in Angleton, Texas, a town roughly 40 miles south of Houston. A battery that size could power about 20,000 homes on a hot summer day. Workers at the site kept equipment under cover and discouraged onlookers, but a Tesla logo could be seen on a worker's hard hat and public documents helped confirm the company's role. Property records on file with Brazoria County show Gambit shares the same address as a Tesla facility near the company's auto plant in Fremont, California. A filing with the U.S. Securities and Exchange Commission lists Gambit as a Tesla subsidiary.
According to a document on the city of Angleton's website ([url]http://angleton.tx.us/DocumentCenter/View/3793/Gambit-Energy-Storage-Park-FAQ?bidId=[/url]), the installation will use lithium iron phosphate batteries that are expected to last 10 to 20 years. The document says that it will generate around $1 million in property tax revenue for the city and the site will be unmanned but remotely monitored.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 27, 2021, 19:49:03 pm
Citar
Researchers Found a Way To Send Tiny Robots Into Mouse Brains (https://hardware.slashdot.org/story/21/03/24/2013213/researchers-found-a-way-to-send-tiny-robots-into-mouse-brains)
Posted by BeauHD on Wednesday March 24, 2021 @07:20PM from the made-possible-by-magnets dept.

An anonymous reader quotes a report from Gizmodo:
Citar
In a mind-bending development, a team of researchers in China have managed to treat brain tumors in mice by delivering drugs to the tissues using microscopic robots (https://gizmodo.com/researchers-found-a-way-to-send-tiny-robots-into-mouse-1846544741). The robots jumped from the mice's bloodstreams into their brains by being coated in E. coli, which tricked the rodents' immune systems into attacking them, absorbing the robots and the cancer-fighting drugs in the process. The team's research was published today in the journal Science Robotics (https://eurekalert.us12.list-manage.com/track/click?u=394dac0d2e831bfd2ca7fc3b5&id=d13e8c3ac8&e=294b4fd360). It comes on the heels of previous research (https://advances.sciencemag.org/content/4/11/eaat4388) by members of the same team, which saw liquid-coated nanorobots remotely propelled through the jelly-like fluid of the eye. Besides being an obvious recipe for an episode of "The Magic School Bus," the research had obvious applications for ophthalmological research and medical treatments.

The crafts are magnetic, and the researchers use a rotating magnetic field to pull them around remotely. On microscales -- we're talking incremental movements about 1% the width of a hair -- the researchers were able to make the hybrid bio-bots wend paths like in the video game Snake. They're dubbed "neutrobots" because they infiltrate the brain in the casing of neutrophils, a type of white blood cell. It ultimately took Wu's team eight years to actualize the microscopic robot swarms capable of bridging the gap between the rodent bloodstream in the animal's tail, where the bots were injected, and its brain, where gliomas -- tumors that emerge from the brain's glial cells -- resided. Part of the issue is that the mice's white blood cells didn't dig the flavor of the magnetic robots. To overcome that issue, Wu's team coated the bots in bits of E. coli membrane, which the white blood cells easily recognize as a unwelcome invader. That made the robots much more palatable, and the white blood cells enveloped them. From inside those cells, the robots were then able to roll the cells toward the brain; a Trojan horse for the 21st century (in this case, one that benefits the residents of Troy). The neutrobots made it into the brains and were able to deliver the drug directly to the targeted tumors.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 27, 2021, 19:52:11 pm
Citar
Solar Is Cheapest Electricity In History, US DOE Aims To Cut Costs 60% By 2030 (https://hardware.slashdot.org/story/21/03/27/0154240/solar-is-cheapest-electricity-in-history-us-doe-aims-to-cut-costs-60-by-2030)
Posted by BeauHD on Saturday March 27, 2021 @06:00AM from the clean-power dept.

Solar is becoming the cheapest option for new electricity in the world (https://hardware.slashdot.org/story/20/10/23/0022228/its-official-solar-is-the-cheapest-electricity-in-history), but there's still room to improve. According to a new cost-reduction target announced today, the U.S. Department of Energy aims to cut utility-scale solar power plant costs by 60% by 2030 (https://cleantechnica.com/2021/03/26/solar-is-cheapest-electricity-in-history-us-doe-aims-to-cut-costs-60-by-2030/). CleanTechnica reports:
Citar
So, how does the DOE intend to help cut solar power costs so much by 2030? First of all, the U.S. DOE's Solar Energy Technologies Office (SETO) sees two materials used in solar cells as critical to this brighter solar future perovskites and cadmium telluride (CdTe). The department is [spending] $63 million to try to help with these solar cell innovation goals. In the DOE's own words:

- $40 million for perovskite R&D: Perovskites are a family of emerging solar materials that have potential to make highly efficient thin-film solar cells with very low production costs. DOE is awarding $40 million to 22 projects that will advance perovskite PV device and manufacturing research and developmentâ"as well as performance through the formation of a new $14 million testing center to provide neutral, independent validation of the performance of new perovskite devices.
- $3 million Perovskite Startup Prize: This new prize competition will speed entrepreneurs' path to commercializing perovskite technologies by providing seed capital for their newly formed companies.
- $20 million for CdTe thin films: The National Renewable Energy Laboratory will set up a consortium to advance cheaper CdTe thin-film solar technologies, which were developed in the United States and make up 20% of the modules installed in this country. This consortium will advance low-cost manufacturing techniques and domestic research capabilities, increasing opportunities for U.S. workers and entrepreneurs to capture a larger portion of the $60 billion global solar manufacturing sector.

"Today's announcement also supports several concentrating solar-thermal power (CSP) projects," the department notes. Here are details from the DOE:

- $33 million for CSP advances: The new funding opportunity also includes funding for improvements to the reliability and performance of CSP plants, which can dispatch solar energy whenever it is needed; identifies new solar applications for industrial processes, which contribute 20% of U.S. carbon dioxide emissions; and advances long-duration thermal-energy storage devices. Long-duration energy storage is critical to decarbonizing the electricity sector and couples well with CSP plants, but the cost must fall by a factor of two to unlock deployment.
- $25 million to demonstrate a next-generation CSP power plant: Sandia National Laboratories will receive funding to build a facility where researchers, developers, and manufacturers can test next-generation CSP components and systems and advance toward DOE's 2030 cost target of 5 cents/kWh for CSP plants.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 10, 2021, 21:45:43 pm
Parece que la gente de Neuralink (https://neuralink.com/) sigue avanzando con el implante neural y ya han pasado de los cerdos a los monos con la idea de empezar las pruebas en humanos a finales de año.

Citar
Neuralink Releases Videos of Monkey Playing Pong With Its Brain (https://games.slashdot.org/story/21/04/09/2022200/neuralink-releases-videos-of-monkey-playing-pong-with-its-brain)
Posted by BeauHD on Friday April 09, 2021 @06:02PM from the taste-of-what's-to-come dept.

Rei (https://games.slashdot.org/~Rei) writes:
Citar
Having moved from pigs to rhesus macaques (https://games.slashdot.org/story/21/02/01/2312250/elon-musk-says-his-start-up-neuralink-has-wired-up-a-monkey-to-play-video-games-using-its-mind) in pursuit of the goal of hopefully beginning human trials by the end of the year, Neuralink has continued their recruitment drive with a pair of videos showing their latest progress. In the first video (https://www.youtube.com/watch?v=rsCul1sp4hQ), they show how they train the macaque to control a joystick with its mind, and how after associating the neural signals with intent, they can disconnect the joystick and the macaque continues to be able to operate the training interface solely through Neuralink (https://neuralink.com/blog/). They then switch it over to controlling a cursor in Pong (picture-in-picture showing synapses here (https://www.youtube.com/watch?v=LgJpYOTll8U)). Even with the game set to high speed (https://www.youtube.com/watch?t=153&v=rsCul1sp4hQ&feature=youtu.be) and with the distraction of his banana-milkshake reward, the macaque puts out an impressive gaming performance.

Musk expects (https://mobile.twitter.com/elonmusk/status/1380315654524301315) the first commercial product to enable a paralyzed person to interact with a smartphone faster than a healthy person using their thumbs.
Citar
"Later versions will be able to shunt signals from Neuralinks in brain to Neuralinks in body motor/sensory neuron clusters, thus enabling, for example, paraplegics to walk again," adds Musk. "The device is implanted flush with skull & charges wirelessly, so you look & feel totally normal."
(https://i.imgur.com/xM1hq1T.jpg) (https://www.youtube.com/watch?v=rsCul1sp4hQ)
Monkey MindPong (https://www.youtube.com/watch?v=rsCul1sp4hQ)

Pueden leer más sobre el proyecto en su blog:

https://neuralink.com/blog/ (https://neuralink.com/blog/)

Saludos.
Título: Re:STEM
Publicado por: Saturio en Abril 11, 2021, 01:32:20 am
Este Elon es la bomba.

Consigue hacer creer que él ha inventado el viaje espacial. No se la de días que tuvimos con el vuelo de la Dragon y el Falcon9 a la estación espacial. Hoy ha despegado una Soyuz con una tripulación de refresco y ni Dios se ha enterado.

Hace unos 15 años o quizás más vi el experimento de unos chavales de la UZ para mover una silla de ruedas con la mente. Hace siglos que vi a gente jugar al excalectric con el pensamiento.

https://www.elmundo.es/cronica/2017/12/17/5a35869d46163f9e5c8b4614.html (https://www.elmundo.es/cronica/2017/12/17/5a35869d46163f9e5c8b4614.html)

Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 11, 2021, 10:01:14 am
Es cierto que hace ya tiempo que se está trabajando en tecnologías que permiten controlar dispositivos con la mente, en mi opinión, lo interesante de la tecnología que está desarrollando Neuralink es:

1. El aumento significativo en el número de electrodos que se implantan en el cerebro (según los últimos datos 3.072 (https://en.wikipedia.org/wiki/Neuralink#Probes))
2. El implante se realiza utilizando un robot, lo cual permite insertar cada electrodo con una precisión que está fuera del alcance del mejor cirujano
3. La comunicación entre el implante neural y el cerebro es bidireccional (los electrodos pueden utilizarse tanto para registratar como para enviar impulsos eléctricos a las neuronas)
4. El implante es completamente intracraneano lo cual evita problemas mecánicos y de infecciones y lo hace prácticamente invisible (lo cual es importante desde un punto de vista estético)

Ayer mismo aparecía esta otra noticia:

Citar
Scientists Connect Human Brain To Computer Wirelessly For First Time Ever (https://science.slashdot.org/story/21/04/10/011223/scientists-connect-human-brain-to-computer-wirelessly-for-first-time-ever)
Posted by EditorDavid on Saturday April 10, 2021 @02:34PM from the mind-over-matter dept.

"Scientists have demonstrated the first human use of a wireless brain-computer interface (https://thenextweb.com/neural/2021/04/06/wireless-bci-brain-computer-interface-tested-on-humans-first-time-braingate/), a potential breakthrough for people with paralysis," reports The Next Web (in a story shared by Slashdot reader Hmmmmmm (https://slashdot.org/~Hmmmmmm)):
Citar
While traditional BCIs are tethered to users via cables, the new system — called BrainGate — replaces the cords with a small transmitter affixed atop a users' head. The unit then connects to an electrode array implanted in the brain's motor cortex. In a clinical trial, two participants with paralysis used the system to point, click, and type on a standard tablet computer. They both achieved similar typing speeds and point-and-click accuracy as those attained with wired systems.

The researchers say it's the first time a device has transmitted the full spectrum of signals recorded by a sensor in the brain's motor cortex (https://doi.org/10.1109/TBME.2021.3069119).
Aunque, en este caso los implantes, como se puede apreciar en la siguiente imagen, son bastante más "aparatosos":

(https://i.imgur.com/pkiqbPX.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 11, 2021, 10:21:36 am
Hoy ha despegado una Soyuz con una tripulación de refresco y ni Dios se ha enterado.
Oleg Artemyev publicó ayer este tweet en su cuenta de Twitter:

(https://i.imgur.com/FEZF6Z7.png)
https://twitter.com/OlegMKS/status/1380847248997806080 (https://twitter.com/OlegMKS/status/1380847248997806080)

Si pueden, vean el vídeo con el sonido activado, es ciertamente impresionante; no me quiero ni imaginar lo que debe serntirse al estar grabando a esa distancia del cohete.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 18, 2021, 01:07:48 am
Citar
Student's First Academic Paper Solves Decades-Old Quantum Computing Problem (https://developers.slashdot.org/story/21/04/17/0340251/students-first-academic-paper-solves-decades-old-quantum-computing-problem)
Posted by EditorDavid on Saturday April 17, 2021 @02:34PM from the A+ dept.

"Sydney university student Pablo Bonilla, 21, had his first academic paper published overnight and it might just change the shape of computing forever," writes Australia's national public broadcaster ABC:
Citar
As a second-year physics student at the University of Sydney, Mr Bonilla was given some coding exercises as extra homework and what he returned with has helped to solve one of the most common problems in quantum computing (https://www.abc.net.au/news/2021-04-13/sydney-university-student-solves-quantum-computing-problem/100064328). His code spiked the interest of researchers at Yale and Duke in the United States and the multi-billion-dollar tech giant Amazon plans to use it in the quantum computer it is trying to build for its cloud platform Amazon Web Services....

Assistant professor Shruti Puri of Yale's quantum research program said the new code solved a problem that had persisted for 20 years. "What amazes me about this new code is its sheer elegance," she said. "Its remarkable error-correcting properties are coming from a simple modification to a code that has been studied extensively for almost two decades...."

Co-author of the paper (https://www.nature.com/articles/s41467-021-22274-1), the University of Sydney's Ben Brown, said the brilliance of Pablo Bonilla's code was in its simplicity... "We just made the smallest of changes to a chip that everybody is building, and all of a sudden it started doing a lot better. It's quite amazing to me that nobody spotted it in the 20-or-so years that people have been working on that model."
Saludos.
Título: Re:STEM
Publicado por: saturno en Abril 25, 2021, 11:11:27 am
Understanding quantum computing through drunken walks stackoverflow.blog
stackoverflow.blog - April 14, 2021
https://stackoverflow.blog/2021/04/14/understanding-quantum-computing-through-drunken-walks/?utm_source=Iterable&utm_medium=email&utm_campaign=the_overflow_newsletter
Citar
The jumping off point for exploring quantum computing is to understand that while many of the principles are counterintuitive, the classical universe we know and love is but a mere shadow of the quantum fabric of reality. To get a feel for that fundamental difference we will walk through an example that helps to illustrate the power of quantum computation.

La metáfora es interesante, pero no he entendido el ejemplo práctico (con código)
Citar
Quantum Walk Intro
https://quantumcomputing.com/strangeworks/projects/quantum-walk-four-nodes/files/main.qasm
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 25, 2021, 20:38:06 pm
Un vídeo de la gente de minutephysics (https://www.youtube.com/channel/UCUHW94eEFW7hkUMVaZz4eDg) en el que explican en detalle el funcinamiento del algoritmo de Shor (https://es.wikipedia.org/wiki/Algoritmo_de_Shor) que permite descomponer en sus factores primos un número N en tiempo O((log N)3)

(https://i.imgur.com/Pv7KYwb.png) (https://www.youtube.com/watch?v=lvTqbM5Dq4Q)
How Quantum Computers Break Encryption | Shor's Algorithm Explained (https://www.youtube.com/watch?v=lvTqbM5Dq4Q)

Si nunca han oído hablar de la transformada cuántica de Fourier (https://es.wikipedia.org/wiki/Transformada_cu%C3%A1ntica_de_Fourier) seguro que les gustará  ;)

Saludos.
Título: Re:STEM
Publicado por: saturno en Abril 26, 2021, 01:19:23 am
Para quienes prefieran lo mismo, pero por escrito, y además es de verdad inteligible.

Shor, I’ll do it
The Blog of Scott Aaronson
https://www.scottaaronson.com/blog/?p=208 (https://www.scottaaronson.com/blog/?p=208)

Y en comentarios;

Citar
Peter Shor Says:
Comment #3 February 24th, 2007 at 6:36 am

Great article, Scott! That’s the best job of explaining quantum computing to the man on the street that I’ve seen.
Título: Re:STEM
Publicado por: Saturio en Abril 26, 2021, 08:41:54 am
Atención.
Pregunta tonta del día:

¿No se podría, igualmente, encriptar cuánticamente?

¡No se rían, cab*****!



Título: Re:STEM
Publicado por: saturno en Abril 26, 2021, 11:42:59 am
Atención.
Pregunta tonta del día:

¿No se podría, igualmente, encriptar cuánticamente?

¡No se rían, cab*****!

No sé, creo que la encriptación de un texto es un cálculo lineal (O · N en lugar de ON ).  Si conoces la clave privada, también la desencriptación es lineal.

La codificación cuántica sirve cuando enfrentas algoritmos exponenciales, como explica la metáfora del borracho. La "superposición" (que sigo sin entender) te permite proceder por probabilidades, en lugar de cálculo líneal. Es el caso del algoritmo de Shor, que permite (permitirá) romper un código.

El ejemplo es bueno. Se aborda el problema con patrones matemáticos y luego ejecutas una superposición estadística (cuántica) buscando esos patrones por probabilidades, pero lo que buscas en realidad es eliminar las respuestas contradictorias, porque te permite "cancelar" sus patrones. Hasta que das con un patrón no contradictorio, evaluando su probabilidad (> 96-97%, dicen). Con eso, reconstituyes la clave. Es tu solución. Y si no encuentras una clave que cumpla la probabilidad a la primera, repites un par de veces.  Debe ser casi instantáneo (0,1 sec en lugar de 10 minutos)

El ejemplo es francamente bueno. Ahora, tienes que tener serias bases de probabilidades para repetir el algoritmo. Con razonamientos lineales no vas muy lejos (ni muy rápido). En ciertos ámbitos se entiende que sea una revolución.
Título: Re:STEM
Publicado por: CHOSEN en Abril 26, 2021, 12:06:51 pm
Si nunca han oído hablar de la transformada cuántica de Fourier (https://es.wikipedia.org/wiki/Transformada_cu%C3%A1ntica_de_Fourier) seguro que les gustará  ;)
Saludos.

Ni la mitad de lo que le gustaría al propio Fourier.
Un saludo.
Título: Re:STEM
Publicado por: sudden and sharp en Abril 26, 2021, 21:35:57 pm
La nueva turbina del tamaño de un 747 que usa gravedad lunar
La humanidad ha usado la gravedad lunar como fuente de energía desde el medievo y ahora queremos convertirla en una energía renovable predecible y constante
https://www.elconfidencial.com/tecnologia/novaceno/2021-04-26/turbina-gravedad-lunar-electricidad_3050352/ (https://www.elconfidencial.com/tecnologia/novaceno/2021-04-26/turbina-gravedad-lunar-electricidad_3050352/)

(https://www.ecestaticos.com/image/clipping/972/547/f10f56527d74d53df0adbda5c535df20/la-nueva-turbina-del-tamano-de-un-747-que-usa-gravedad-lunar.jpg)

Citar
La facilidad de mantenimiento está en sus alas. La O2 mantiene su cuerpo principal en la superficie, sumergiendo dos alas con dos grandes turbinas en un ángulo de 45 grados. Esta operación coloca las turbinas a la profundidad adecuada para aprovechar los movimientos de la marea. Si hay algún problema mecánico, las alas vuelven a ponerse en posición horizontal, donde pueden ser fácilmente reparadas por los mecánicos. Y si el problema no puede ser reparado en el mar, la estructura puede ser arrastrada a puerto para repararla allí.

Pronto podremos comprobar si están en el camino correcto o no: Orbital terminó la primera O2 a principios de mes y ahora se está preparando para colocarla en el mar y comenzar operaciones.
Título: Re:STEM
Publicado por: saturno en Abril 26, 2021, 22:52:57 pm
Por seguir un poco con el algol de Shor, , un video v/FR con (buenos) subtitulos ingleses.

Comment déchiffrer (presque) n'importe quel message codé ?
https://www.youtube.com/watch?v=z4tkHuWZbRA (https://www.youtube.com/watch?v=z4tkHuWZbRA)

No usa directamente el algol de Shor sino otro algol estadístico MCMC (Markov Chain Monte Carlo) usado para  descifrar textos cifrados por subsitución,

Shor usa patrones de numeros primos, porque es la base del cifrado RSA, mientras que el MCMC usa patrones de frecuencia de letras para una lengua dada,
La lógica es similar y el video visualiza bien el uso de patrones (por ej, cadenas de Markov ) y la ponderacion probabilistica para  excluir patrones  (en este caso, con el algorimo de metrópolis)

 
Me he quedado más a gusto, Está bien ese canal,

Me falta  eso de "superposición" cuántica, que sigo sin entender. (Gracias a los que aporten luces)
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 27, 2021, 18:17:38 pm
Me falta  eso de "superposición" cuántica, que sigo sin entender. (Gracias a los que aporten luces)
(https://i.imgur.com/bswJaDA.jpg) (https://www.youtube.com/watch?v=ilPfvMEOmCs)
Todo lo que un Qubit puede Enseñarte sobre Física Cuántica (https://www.youtube.com/watch?v=ilPfvMEOmCs)

Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Abril 27, 2021, 20:30:17 pm
Ya sabes lo que dicen de la mecánica cuántica...

"Si crees que entiendes la mecánica cuántica, es que no entiendes la mecánica cuántica." (Richard Feynman)

La Mecánica Cuántica es una hipótesis, una posibilidad, una teoría. Yo me espero a que la demuestren. (No te creas, ellos están esperando a que tú se la refutes. No tienen cara.)
Título: Re:STEM
Publicado por: saturno en Abril 27, 2021, 22:42:38 pm
Me falta  eso de "superposición" cuántica, que sigo sin entender. (Gracias a los que aporten luces)
(https://i.imgur.com/bswJaDA.jpg) (https://www.youtube.com/watch?v=ilPfvMEOmCs)
Todo lo que un Qubit puede Enseñarte sobre Física Cuántica (https://www.youtube.com/watch?v=ilPfvMEOmCs)

Saludos.

No, lo que quería intuir está aquí. (me lo propuso YouTube, supongo que me ha calado ;) )

Así cambiará el mundo la computación cuántica: Ignacio Cirac  (2018)
https://www.youtube.com/watch?v=WJ3r6btgzBM (https://www.youtube.com/watch?v=WJ3r6btgzBM)

La superposición está presentada alrededor de min 40, pero la conferencia es muy buena,
Es también una presentación para el personal de Telefónica, de forma que trata de sus aplicaciones, de la implementación física de Qubits (explica cómo los implementa IBM): uno le pregunta si van a ser necesarias redes (la respuesta de Cirac sobre la diferencia entre la física cableada y la información transmitida es luminosa) y hasta un DRH le pregunta sobre la gestion de su equipo,

Con 4-5 preguntas concretas, y otras tantas respuestas concisas, breves y pertinentes,

Muy bueno de verdad.

____

(Yahoo me acaba de colocar otro curso sobre algoritmica cuantica,

Curso Computación cuántica
https://www.youtube.com/watch?v=KKwjeJzKezw (https://www.youtube.com/watch?v=KKwjeJzKezw)
Instituto de Matemáticas de la UNAM
Por Eduardo Sáenz de Cabezón.
Miércoles 24 y Viernes 26 de abrilr

Los 15 minutos inciales ya te ha centrado la computación (no hablará de fisica), suspendido el juicio sobre la posibilidad física de ordenadores cuánticos  (no está nada clara, por el tema de la decoherencia -- ver Cirac) y definido un qubit en superposicion con una  ecuación lineal. ¡Oye! Eso es eficiencia,
Pocas palabras, y muy bien definidas,

Recomiento escuchar a Ignacio Cirac previamente, porque hace una panorámica/introducción completa de conceptos que vuelve a tomar Saenz de Cabezón, y que es  muy buena)

¡Gracias de veras!
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 28, 2021, 16:07:20 pm
No, lo que quería intuir está aquí. (me lo propuso YouTube, supongo que me ha calado ;) )

Así cambiará el mundo la computación cuántica: Ignacio Cirac  (2018)

https://www.youtube.com/watch?v=WJ3r6btgzBM (https://www.youtube.com/watch?v=WJ3r6btgzBM)
Sí, esa charla de Ignacio Cirac la vi en su momento y me pareció realmente buena.

Si les apetece, aunque ya hace muchos años de esto, en su momento en las míticas webs de El Tamiz (https://eltamiz.com/) y El Cedazo (https://eltamiz.com/elcedazo/) publicaron un par de series muy interesantes sobre el tema:
Saludos.

P.D. Impagable lo de los "cuantejos" que utilizaban para explicar el entrelazamiento cuántico (https://eltamiz.com/2009/06/24/cuantica-sin-formulas-el-entrelazamiento-cuantico/) en la serie de El Tamiz...
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 29, 2021, 09:14:42 am
Citar
High-Bandwidth Wireless BCI Demonstrated In Humans For First Time (https://science.slashdot.org/story/21/04/28/2144231/high-bandwidth-wireless-bci-demonstrated-in-humans-for-first-time)
Posted by BeauHD on Wednesday April 28, 2021 @11:30PM from the huge-step-forward dept.

An anonymous reader quotes a report from Ars Technica:

Citar
Coming on the heels of the Neuralink announcement earlier this month -- complete with video showing a monkey playing Pong with its mind (https://slashdot.org/story/21/04/09/2022200/neuralink-releases-videos-of-monkey-playing-pong-with-its-brain), thanks to a wireless brain implant -- researchers with the BrainGate Consortium have successfully demonstrated a high-bandwidth wireless brain-computer interface (BCI) in two tetraplegic human subjects (https://arstechnica.com/science/2021/04/new-high-bandwidth-wireless-bci-helps-tetraplegics-use-tablet-computers/). The researchers described their work in a recent paper (https://ieeexplore.ieee.org/document/9390339) published in the journal IEEE Transactions in Biomedical Engineering. As for the latest Neuralink breakthrough, Ars Science Editor John Timmer wrote last week (https://arstechnica.com/science/2021/04/the-big-advance-in-elon-musks-pong-playing-monkey-is-what-you-cant-see/) that most of the individual pieces of Neuralink's feat have been done before -- in some cases, a decade before (BrainGate is among those earlier pioneers). But the company has taken two important steps toward its realization of a commercial BCI: miniaturizing the device and getting it to communicate wirelessly, which is harder than it sounds.

According to [John Simeral of Brown University, a member of the BrainGate consortium and lead author of the new paper], the BrainGate wireless system makes the opposite tradeoff -- higher bandwidth and fidelity -- because it wants all the finer details of the data for its ongoing research. In that regard, it complements the Utrecht and Neuralink systems in the BCI space. The new BrainGate system is based on the so-called Brown Wireless Device (BWD) designed by Arto Nurmikko, and it replaces the cables with a small transmitter that weighs about 1.5 ounces. The transmitter sits atop the user's head and connects wirelessly to an implant electrode array inside the motor cortex.

There were two participants in the clinical trial -- a 35-year-old man and a 65-year-old man -- both of whom were paralyzed by spinal cord injuries. They were able to continuously use the BCI for a full 24 hours, even as they slept, yielding continuous data over that time period. (The medical-grade battery lasts for 36 hours.) "We can learn more about the neural signals that way because we can record over long periods of time," said Simeral. "And we can also begin to learn a little bit about how people actually will use the system, given the freedom to do so." His team was encouraged by the fact that one of its study participants often asked if they could leave the wireless transmitters on a little longer. He has a head tracker he can use as a fallback, but several nights a week, he would choose to use the wireless BrainGate system because he liked it.
"Right now, we typically decode or interpret the spiking activity from networks of neurons," said Simeral. "There are other encoding mechanisms that have been studied in the brain that have to do with how the oscillations in the brain are related to these spiking signals. There's information in the different oscillation frequencies that might relate to, for example, sleep state, attention state, other phenomenon that we care about. Without a continuous recording, you've surrendered the ability to learn about any of those. Learning how this all happens in the human brain in the home as people are behaving and having different thoughts requires having a broadband system recording from the human brain."

"The ability to potentially have individuals with disability using these systems at home on demand, I think is a great step forward," said Simeral. "More broadly, going forward, having more players in the field, having more funding, is important. I see nothing but great things from all of these interactions. For our own work, we see things on the horizon that were impossible five years ago, when there was essentially nobody in the corporate world interested in this space. So I think it's a very promising time."
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Junio 12, 2021, 22:35:17 pm
El equipo de Google Brain, en colaboración con el equipo responsable del diseño de las TPU (https://en.wikipedia.org/wiki/Tensor_Processing_Unit)s de Google ha publicado un artículo en Nature en el que explican como un algoritmo de RL (https://en.wikipedia.org/wiki/Reinforcement_learning) diseñado por ellos, es capaz de solucioar en cuestión de horas el problema de optimizar la distribución de los componentes de un chip de tal forma que se logre a un tiempo minimizar el área ocupada al tiempo que se maximiza el rendimiento y se minimiza el consumo del circuito integrado.

(https://i.imgur.com/98ph2PL.png)
https://twitter.com/annadgoldie/status/1402644252320886786

Se pueden encontrar más detalles sobre el funcionamiento del algoritmo de RI en la entrada Chip Design with Deep Reinforcement Learning (https://ai.googleblog.com/2020/04/chip-design-with-deep-reinforcement.html) del Google AI Blog.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Junio 23, 2021, 07:57:33 am
Citar
Growing Food With Air and Solar Power Is More Efficient Than Planting Crops ([url]https://science.slashdot.org/story/21/06/22/2126228/growing-food-with-air-and-solar-power-is-more-efficient-than-planting-crops[/url])
Posted by BeauHD on Tuesday June 22, 2021 @11:30PM from the food-from-air dept.

An anonymous reader quotes a report from Phys.Org:
Citar
A team of researchers from the Max Planck Institute of Molecular Plant Physiology, the University of Naples Federico II, the Weizmann Institute of Science and the Porter School of the Environment and Earth Sciences has found that making food from air would be far more efficient than growing crops ([url]https://phys.org/news/2021-06-food-air-solar-power-efficient.html[/url]). In their paper published in Proceedings of the National Academy of Sciences ([url]http://dx.doi.org/10.1073/pnas.2015025118[/url]), the group describes their analysis and comparison of the efficiency of growing crops (soybeans) and using a food-from-air technique. [...] To make their comparisons, the researchers used a food-from-air system that uses solar energy panels to make electricity, which is combined with carbon dioxide from the air to produce food for microbes grown in a bioreactor. The protein the microbes produce is then treated to remove nucleic acids and then dried to produce a powder suitable for consumption by humans and animals.

They compared the efficiency of the system with a 10-square-kilometer soybean field. Their analysis showed that growing food from air was 10 times as efficient as growing soybeans in the ground. Put another way, they suggested that a 10-square-kilometer piece of land in the Amazon used to grow soybeans could be converted to a one-square-kilometer piece of land for growing food from the air, with the other nine square kilometers turned back to wild forest growth. They also note that the protein produced using the food-from-air approach had twice the caloric value as most other crops such as corn, wheat and rice.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Junio 27, 2021, 19:45:10 pm
El otro día me tropecé con este tweet que me llamó mucho la atención:

(https://i.imgur.com/HWS2vCM.png)
https://twitter.com/EDocet/status/1407427922890170368 (https://twitter.com/EDocet/status/1407427922890170368)

Y leyendo el artículo de Nature enlazado en el tweet de Cesar Tomé López:

Citar
Mathematicians welcome computer-assisted proof in ‘grand unification’ theory (https://www.nature.com/articles/d41586-021-01627-2)
Proof-assistant software handles an abstract concept at the cutting edge of research, revealing a bigger role for software in mathematics.

Davide Castelvecchi | 18 June 2021

(https://i.imgur.com/fCvvwF3.jpg)
Efforts to verify a complex mathematical proof using computers have been successful.Credit: Fadel Senna/AFP via Getty

Peter Scholze wants to rebuild much of modern mathematics, starting from one of its cornerstones. Now, he has received validation for a proof at the heart of his quest from an unlikely source: a computer.

Although most mathematicians doubt that machines will replace the creative aspects of their profession anytime soon, some acknowledge that technology will have an increasingly important role in their research — and this particular feat could be a turning point towards its acceptance.

Scholze, a number theorist, set forth the ambitious plan — which he co-created with his collaborator Dustin Clausen from the University of Copenhagen — in a series of lectures in 2019 at the University of Bonn, Germany, where he is based. The two researchers dubbed it ‘condensed mathematics’, and they say it promises to bring new insights and connections between fields ranging from geometry to number theory.

Other researchers are paying attention: Scholze is considered one of mathematics’ brightest stars and has a track record of introducing revolutionary concepts. Emily Riehl, a mathematician at Johns Hopkins University in Baltimore, Maryland, says that if Scholze and Clausen’s vision is realized, the way mathematics is taught to graduate students in 50 years’ time could be very different than it is today. “There are a lot of areas of mathematics that I think in the future will be affected by his ideas,” she says.

Until now, much of that vision rested on a technical proof so involved that even Scholze and Clausen couldn’t be sure it was correct. But earlier this month, Scholze announced that a project to check the heart of the proof using specialized computer software had been successful.

Computer assistance

Mathematicians have long used computers to do numerical calculations or manipulate complex formulas. In some cases, they have proved major results by making computers do massive amounts of repetitive work — the most famous being a proof in the 1970s that any map can be coloured with just four different colours, and without filling any two adjacent countries with the same colour.

But systems known as proof assistants go deeper. The user enters statements into the system to teach it the definition of a mathematical concept — an object — based on simpler objects that the machine already knows about. A statement can also just refer to known objects, and the proof assistant will answer whether the fact is ‘obviously’ true or false based on its current knowledge. If the answer is not obvious, the user has to enter more details. Proof assistants thus force the user to lay out the logic of their arguments in a rigorous way, and they fill in simpler steps that human mathematicians had consciously or unconsciously skipped.

Once researchers have done the hard work of translating a set of mathematical concepts into a proof assistant, the program generates a library of computer code that can be built on by other researchers and used to define higher-level mathematical objects. In this way, proof assistants can help to verify mathematical proofs that would otherwise be time-consuming and difficult, perhaps even practically impossible, for a human to check.

Proof assistants have long had their fans, but this is the first time that they had a major role at the cutting edge of a field, says Kevin Buzzard, a mathematician at Imperial College London who was part of a collaboration that checked Scholze and Clausen’s result. “The big remaining question was: can they handle complex mathematics?” says Buzzard. “We showed that they can.”

And it all happened much faster than anyone had imagined. Scholze laid out his challenge to proof-assistant experts in December 2020, and it was taken up by a group of volunteers led by Johan Commelin, a mathematician at the University of Freiburg in Germany. On 5 June — less than six months later — Scholze posted on Buzzard’s blog that the main part of the experiment had succeeded. “I find it absolutely insane that interactive proof assistants are now at the level that, within a very reasonable time span, they can formally verify difficult original research,” Scholze wrote.

The crucial point of condensed mathematics, according to Scholze and Clausen, is to redefine the concept of topology, one of the cornerstones of modern maths. A lot of the objects that mathematicians study have a topology — a type of structure that determines which of the object’s parts are close together and which aren’t. Topology provides a notion of shape, but one that is more malleable than those of familiar, school-level geometry: in topology, any transformation that does not tear an object apart is admissible. For example, any triangle is topologically equivalent to any other triangle — or even to a circle — but not to a straight line.

Topology plays a crucial part not only in geometry, but also in functional analysis, the study of functions. Functions typically ‘live’ in spaces with an infinite number of dimensions (such as wavefunctions, which are foundational to quantum mechanics). It is also important for number systems called p-adic numbers, which have an exotic, ‘fractal’ topology.

A grand unification

Around 2018, Scholze and Clausen began to realize that the conventional approach to the concept of topology led to incompatibilities between these three mathematical universes — geometry, functional analysis and p-adic numbers — but that alternative foundations could bridge those gaps. Many results in each of those fields seem to have analogues in the others, even though they apparently deal with completely different concepts. But once topology is defined in the ‘correct’ way, the analogies between the theories are revealed to be instances of the same ‘condensed mathematics’, the two researchers proposed. “It is some kind of grand unification” of the three fields, Clausen says.

Scholze and Clausen say they have already found simpler, ‘condensed’ proofs of a number of profound geometry facts, and that they can now prove theorems that were previously unknown. They have not yet made these public.

There was one catch, however: to show that geometry fits into this picture, Scholze and Clausen had to prove one highly technical theorem about the set of ordinary real numbers, which has the topology of a straight line. “It’s like the foundational theorem that allows the real numbers to enter this new framework,” Commelin explains.

(https://i.imgur.com/JEje6mh.png)
In the proof-assistant package Lean, users enter mathematical statements based on simpler statements and concepts that are already in the Lean library.
The output, seen here in the case of Scholze and Clausen’s key result, is a complex network.
The statements have been colour-coded and grouped by subfield of maths.
Credit: Patrick Massot

Clausen recalls how Scholze worked relentlessly on the proof until it was completed ‘through force of will’, producing many original ideas in the process. “It was the most amazing mathematical feat I’ve ever witnessed,” Clausen recalls. But the argument was so complex that Scholze himself worried there could be some subtle gap that invalidated the whole enterprise. “It looked convincing, but it was simply too novel,” says Clausen.

For help checking that work, Scholze turned to Buzzard, a fellow number theorist who is an expert in Lean, a proof-assistant software package. Lean was originally created by a computer scientist at Microsoft Research in Redmond, Washington, for the purpose of rigorously checking computer code for bugs.

Buzzard had been running a multi-year programme to encode the entire undergraduate maths curriculum at Imperial into Lean. He had also experimented with entering more-advanced mathematics into the system, including the concept of perfectoid spaces, which helped to earn Scholze a Fields Medal in 2018.

Commelin, who is also a number theorist, took the lead in the effort to verify Scholze and Clausen’s proof. Commelin and Scholze decided to call their Lean project the Liquid Tensor Experiment, in an homage to progressive-rock band Liquid Tension Experiment, of which both mathematicians are fans.

A febrile online collaboration ensued. A dozen or so mathematicians with experience in Lean joined in, and the researchers got help from computer scientists along the way. By early June, the team had fully translated the heart of Scholze’s proof — the part that worried him the most — into Lean. And it all checked out — the software was able to verify this part of the proof.

Better understanding

The Lean version of Scholze’s proof comprises tens of thousands of lines of code, 100 times longer than the original version, Commelin says. “If you just look at the Lean code, you will have a very hard time understanding the proof, especially the way it is now.” But the researchers say that the effort of getting the proof to work in the computer has helped them to understand it better, too.

Riehl is among the mathematicians who have experimented with proof assistants, and even teaches them in some of her undergraduate classes. She says that, although she doesn’t systematically use them in her research, they have begun to change the very way she thinks of the practices of constructing mathematical concepts and stating and proving theorems about them. “Previously, I thought of proving and constructing as of two different things, and now I think of them as the same.”

Many researchers say that mathematicians are unlikely to be replaced by machines any time soon. Proof assistants can’t read a maths textbook, they need continuous input from humans, and they can’t decide whether a mathematical statement is interesting or profound — only whether it is correct, Buzzard says. Still, computers might soon be able to point out consequences of the known facts that mathematicians had failed to notice, he adds.

Scholze says he was surprised by how far proof assistants could go, but that he is unsure whether they will continue to have a major role in his research. “For now, I can’t really see how they would help me in my creative work as a mathematician.”
Encontré un par de entradas en la web de Jack Clark (https://jack-clark.net/) que hablaban sobre el uso de algoritmos de deep-learning orientados a probar teoremas.

La primera, que data de abril de 2019, en la que se hablaba sobre HOList de Google:

HOList: An Environment for Machine Learning of Higher-Order Theorem Proving (https://arxiv.org/abs/1904.03241)

Citar
Google reveals HOList, a platform for doing theorem proving research with deep learning-based methods:

…In the future, perhaps more math theorems will be proved by AI systems than humans…

Researchers with Google want to develop and test AI systems that can learn to solve mathematical theorems, so have made tweaks to theorem proving software to make it easier for AI systems to interface with. In addition, they’ve created a new theorem proving benchmark to spur development in this part of AI.

HOList: The software they base their system on is called HOL Light. For this project, they develop “an instrumented, pre-packaged version of HOL Light that can be used as a large scale distributed environment of reinforcement learning for practical theorem proving using our new, well-defined, stable Python API”. This software ships with 41 “tactics” which are basically algorithms to use to help prove math theorems.

Benchmarks: The researchers have also released a new benchmark on HOL Light, and they hope this will “enable research and measuring progress of AI driven theorem proving in large theories”. The benchmarks are initially designed to measure performance on a few tasks, including: predicting the same methodologies used by humans to create a proof; and trying to prove certain subgoals or aspects of proofs without access to full information.

DeepHOL: They design a neural network-based theorem prover called DeepHOL which tries to concurrently encode the goals and premises while generating a proof. “In essence, we propose a hybrid architecture that both predicts the correct tactic to be applied, as well as rank the premise parameters required for meaningful application of tactics”. They test out a variety of different neural network-based approaches within this overall architecture and train them via reinforcement learning, with the best system able to prove 58% of the proofs in the training set – no slam-dunk, but very encouraging considering these are learning-based methods.

Why this matters: Theorem proving feels like a very promising way to test the capabilities of increasingly advanced machines, especially if we’re able to develop systems that start to generate new proofs. This would be a clear validation of the ability for AI systems to create novel scientific insights in a specific domain, and I suspect would give us better intuitions about AI’s ability to transform science more generally as well.  “We hope that our initial effort fosters collaboration and paves the way for strong and practical AI systems that can learn to reason efficiently in large formal theories,” they write.
Y otra más reciente que data del 17 de mayo de 2021, esta vez sobre MiniF2F, un proyecto de la gente de OpenAI cuyo objetivo es establecer un benchmark que permita evaluar y comparar sistemas automáticos de comprobación de teoremas.

MiniF2F (OpenAI, GitHub) (https://github.com/openai/miniF2F)

Citar
OpenAI releases a formal mathematics benchmark:

…MiniF2F: One benchmark for comparing multiple systems…

OpenAI has built MiniF2F, a formal mathematics benchmark to evaluate and compare automated theorem proving systems based on different formal systems being targeted (e.g, Lean, Metamath). The benchmark is still in development and OpenAI is looking for feedback and plans to create a version 1 of the benchmark in the summer.

Why this matters: Formal mathematics is an area where we’ve recently seen deep learning based methods cover surprising ground (e.g, Google has a system it uses called HOList for running AI-math experiments ImportAI: 142 (https://jack-clark.net/2019/04/15/import-ai-142-import-ai-142-berkeley-spawns-cheap-blue-arm-google-trains-neural-nets-to-prove-math-theorems-seven-questions-about-gans/)). Benchmarks like MiniF2F will make it easier to understand what kind of progress is being made here.
MiniF2F ha empezado con herramientas orientadas a probar teoremas de forma automática: Lean, Metamath, Hol Light e Isabelle (aunque todavía no han empezado con Hol Light).

En la página de la Wikipedia de Lean (https://en.wikipedia.org/wiki/Lean_(proof_assistant)) hay varios ejemplos sencillos de como se describe un teorema en Lean que es un lenguaje de programación que todavía está en una fase relativamente preliminar creado en 2013 por un investigador de Microsoft llamado Leonardo de Moura.

En el repositorio de GitHub se puede echar un ojo a los datasets que han creado para los diferentes frameworks separados en las carpetas valid y test que permiten comparar los diferentes frameworks entre sí y, establecen un marco de referencia para poder ver su evolución con el tiempo.

Según se puede leer en la entrada de Lean de la Wikipedia, Kevin Buzzard, un profesor de matemáticas puras del Imperial College de Londres ha creado un proyecto llamado Xena (https://xenaproject.wordpress.com/what-is-the-xena-project/), uno de cuyos objetivos es el codificar todos los teoremas y pruebas del plan de estudios de matemáticas del Imperial College London en Lean algo que entiendo que será muy útil en el futuro para entrenar estos sistemas de prueba automática de teoremas basados en deep learning.

Saludos.
Título: Re:STEM
Publicado por: wanderer en Junio 28, 2021, 12:16:31 pm
Bueno, como matemático profesional, diré que no es lo mismo las "computer assisted proofs", dónde teoremas matemáticos se reducen a que verificar que ciertos programas (que han de estar publicados extensamente junto con el resultado de correrlos) se usan para reducir cierta conjetura matemática a la verificación de ciertos cálculos (que pueden numéricos, en cuyo caso se usa aritmética interválica -.que no asegura obtener un resultado conclusivo, pero si lo obtiene, éste es completamente verificable; típicamente de trata de una desigualdad de si cierto número es > ó <0; si el número es 0, no proporciona conclusión.-. También pueden ser cálculos en álgebra computacional, como obtener los generadores de ciertos grupos, o la dimensión de ciertos espacios vectoriales, etc). En todos esos casos, el trabajo duro está en la reducción de cierta conjetura a la comprobación de un cierto número finito de casos, y la implementación de un código verificable para la comprobación de todos ellos. Por poner un ejemplo de un teorema probado así, está la prueba de la conjetura de Kepler (https://es.wikipedia.org/wiki/Conjetura_de_Kepler) en dimensión n=3 de que el empaquetamiento óptimo de esferas se obtiene por lo que en cristalografía se conoce como red fcc (cúbica centrada en las caras; popularmente, la red del frutero). El método me parece que no es lo más elegante que uno pueda desear, pero al fin y al cabo, perfectamente aceptable y dónde el talento de los humanos está siempre al final del proceso.

Otro asunto es usar el aprendizaje profundo para que una red neuronal aprenda a reconocer conjeturas y probarlas. Eso ya me convence mucho menos, aún  si tiene éxito, porque para mí las matemáticas y su comprensión van íntimamente unidas, y de éste modo, pues me parece tomar un atajo muy peligroso, por tentador que sea, y dónde se acabe matando la imaginación y la profundidad. Será que uno es un platónico avant la lettre, pero pienso que belleza y verdad están íntimamente unidas, y por éste camino quizá haya verdad, pero sin belleza, lo cual me apartaría de ella en buena medida.

Sds
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 03, 2021, 20:06:02 pm
(https://i.imgur.com/MfWhoZI.jpg) (https://www.youtube.com/watch?v=uCpE6z999Uk)
¿Es GITHUB Copilot el FIN de los PROGRAMADORES? | IA que APRENDE a PROGRAMAR (https://www.youtube.com/watch?v=uCpE6z999Uk)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 05, 2021, 23:10:57 pm
Entre el 19 y el 25 de junio tuvo lugar la CVPR'21 (Computer Vision and Pattern Recognition (https://en.wikipedia.org/wiki/Conference_on_Computer_Vision_and_Pattern_Recognition)) uno de los eventos anuales más importantes en ese campo.

La mayor parte de las presentaciones son de equipos de investigación de las principales universidades, pero también hay presentaciones de investigadores que trabajan en empresas. Este año, por ejemplo, ha habido presentaciones de, entre otros, Nvidia, Toyota y Tesla.

El día 20, Andrej Karpathy (https://en.wikipedia.org/wiki/Andrej_Karpathy), director of AI at Tesla desde junio de 2017, hizo una presentación en la que explicaba detalles interesantes sobre los últimos avances que están haciendo en Autopilot. Me resultó especialmente interesante la explicación sobre por qué han decidido apostar por el uso exclusivo de cámaras a diferencia de competidores como Waymo que, aparte de cámaras, hacen también uso de lidars y radares.

(https://i.imgur.com/C4W8Fx5.jpg)
https://twitter.com/karpathy/status/1407017269083865095 (https://twitter.com/karpathy/status/1407017269083865095)

(https://i.imgur.com/YALLRR6.jpg) (https://www.youtube.com/watch?v=eOL_rCK59ZI&t=28286)
Workshop on Autonomous Driving at CVPR'21 (at 7h51m26s) (https://www.youtube.com/watch?v=eOL_rCK59ZI&t=28286)

Saludos.
Título: Re:STEM
Publicado por: Saturio en Julio 06, 2021, 09:52:07 am
Elon es un figura y es capaz de vender que el ideó el análisis de imagen como sistema fundamental de apoyo a la conducción.


Antes que Elon y tan lejos como en los finales 90 ya había empresas que habían decidido apostar por esos sistemas y se acabaron convirtiendo en los proveedores de las empresas de automoción. De hecho los primeros sistemas de Tesla eran de Mobileye (creo que hasta 2016) y luego partieron peras. Mobileye ha acabado comprada por Intel y suministrando a prácticamente todo el mundo. Se dice que Mobileye acabó mal con Tesla por la política de Elon de vender cosas en beta. Lo más probable es que sea una excusa y detrás haya otras historias.

De hecho, Tesla no es la excepción, la excepción es Waymo.

Título: Re:STEM
Publicado por: Saturio en Julio 06, 2021, 09:57:15 am
Me corrijo.

Mobileye además de análisis de imagen utiliza LIDAR. Aparentemente el LIDAR lo utiliza para mapear las carreteras y vías.

Título: Re:STEM
Publicado por: Mad Men en Julio 06, 2021, 10:38:50 am
Digno de estudio Tesla.

Para todos los agoreros.

-Está fabricando 200.000 unidades trimestrales, cosa que no está nada mal.

-Aún nadie ha llegado a su nivel en el tema del coche eléctrico.

-Ha conseguido que se pongan todas las pilas para la transición del coche eléctrico.

-Y tiene beneficios!!!!!!!

Para que digan que es un vendehúmos.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 06, 2021, 21:59:20 pm
Yo tampoco termino de entender esa inquina contra Elon Musk, la verdad.

Si hay algo de por lo que se puede criticar a Elon Musk es de ser demasiado optimista, pero no por ser un vendehúmos.

Un vendehúmos:
Sobre Tesla, allá por octubre de 2018 escribí este post (https://www.transicionestructural.net/index.php?topic=347.msg160886#msg160886) en el hilo de Coches eléctricos.

Sobre SpaceX (que es anterior a Tesla y que estuvo a un único lanzamiento de quebrar), no hace falta más que ver lo que ha supuesto el haber logrado fabricar cohetes reutilizables. SpaceX ha conseguido reducir en más de un 40% (https://www.fool.com/investing/2020/10/05/how-much-cheaper-are-spacex-reusable-rockets-now-w/) el coste de un lanzamiento.

No tienen mas que ver las estadísticas que publica la propia SpaceX sobre el número de lanzamientos que realizan al año para ver que Elon Musk no está vendiendo humo:

(https://i.imgur.com/kLI6rRy.png)
https://www.spacexstats.xyz/#launchhistory-per-year (https://www.spacexstats.xyz/#launchhistory-per-year)

Pero, no contento con eso, SpaceX también ha creado diseños de motores para cohetes revolucionaros. ¿Su última apuesta? los Raptor, unos motores que, en vez de utilizar queroseno como los Merlin, utilizan metano lo cual les proporciona entre dos y tres veces el empuje que tienen los motores Merlin.

Si tienen tiempo no dejen de ver este vídeo:

(https://i.imgur.com/0JkzL7S.png) (https://www.youtube.com/watch?v=LbH1ZDImaI8)
Is SpaceX's Raptor engine the king of rocket engines? (https://www.youtube.com/watch?v=LbH1ZDImaI8)

Les aseguro que, si lo hacen, no volverán a ver un lanzamiento de un cohete de la misma manera.

Saludos.

P.D.

Aprovecho para recomendales de nuevo que lean, si no lo han hecho ya, la biografía de Elon Musk escrita por Ashlee Vance:

(https://i.imgur.com/aUIWqLh.jpg)

Si hubiera que resumir el libro en una única frase yo me quedaría con esta cita atribuída a Justine Musk (https://en.wikipedia.org/wiki/Justine_Musk), su primera mujer:

Citar
"Money is not his motivation, and, quite frankly, I think it just happens for him," Justine said. "I'ts just there. He knows he can generate it."
Título: Re:STEM
Publicado por: Saturio en Julio 07, 2021, 10:05:58 am
Si está vendiendo humo.

Centrémonos en SpaceX.

-En realidad nadie sabe cuanto está costando su sistema reutilizable, que al final no es tan reutilizable. Entre otras, esas son las ventajas de que SpaceX se mantenga "private"
-El Falcon Heavy fue un proyecto que ha tenido que ser abandonado porque jamás hubo mercado para ese lanzador.
-Mandan una tripulación a la ISS y parece que han aterrizado en Júpiter.
-Tenemos todos los días un capítulo de su película del viaje a Marte que es una fantasía, sobre todo para 2023, que es la fecha que dio. Ruego que os miréis en qué consiste el plan para llegar y volver a Marte.


No es optimismo es un humo muy bien vendido que le permite obtener dinero para alcanzar objetivos mucho más discretos que, evidentemente son logros y tal. Su principal logro es captar la pasta, en lo que es un genio y que quieren que les diga, es la función principal de un CEO. Es decir, como cabeza de una empresa que necesita crecer me parece un tipo sobresaliente.
Que esté cambiando el mundo...pues no.

Fuera del SpaceX puedo recordar varias cosas que fueron vendidas como la polla con cebolla. Y no pasa nada que todas las empresas tienen proyectos fuleros o que no van a ninguna parte, pero Elon los vendió como nadie.

-Las Tesla Tejas.
-EL Tesla Semi.

Y el cybertruck lleva camino de ser otra cosa que nunca veamos, junto con el Tesla m3 de 35.000 dólares.


El valor de Elon es que con el hipe de esas cosas, al final ha conseguido que sus proyectos tiren para adelante. Al final los 500.000 reservistas del M3 a 35.000 euros acabaron pagando mucho más por él.

¿Cómo se llamaba eso de los tubos...lo de la Boring Company?






Título: Re:STEM
Publicado por: Mad Men en Julio 07, 2021, 10:48:24 am
Buenas Saturio.

Entiendo tu visión pasional sobre Elon, no tanto tu visión racional.

Le digo una cosa, vender humo durante poco tiempo es posible (véase el grafeno) pero ya le digo que venderlo durante décadas es imposible, el humo se esfuma y no queda nada.

Creo que matizar una respuesta y ampliar la información resultaría más útil que tachar de vendehumos.


Por cierto el model 3 cuesta menos de 35k dóllares. Aquí lo puede comprobar desde la misma página de Tesla.

https://www.tesla.com/model3/design#overview (https://www.tesla.com/model3/design#overview)

Animo al debate sobre el tema, porque, al parecer, los gobiernos están decididos a acabar con el coche de combustión.

Saludos.


PD: Respecto a fracasos como la teslateja, dígame, que empresa no ha tenido productos que han sido un fracaso? Que empresa no ha cancelado algún producto?.


Título: Re:STEM
Publicado por: PastorMesetario en Julio 07, 2021, 11:30:45 am
Recuerdo una conversación con un amigo, a principios de siglo, cuando Tesla se estaba formando. Mi amigo me explicaba cómo iban a ser los coches y a mí me parecía casi imposible, inviable. En especial, no veía posible la carga rápida de semejante monstruo de litio ni su durabilidad ni su autonomía. Pero ahí está. Mientras tanto, sigo tragandome mis palabras.
Título: Re:STEM
Publicado por: Mad Men en Julio 07, 2021, 11:43:12 am
Recuerdo una conversación con un amigo, a principios de siglo, cuando Tesla se estaba formando. Mi amigo me explicaba cómo iban a ser los coches y a mí me parecía casi imposible, inviable. En especial, no veía posible la carga rápida de semejante monstruo de litio ni su durabilidad ni su autonomía. Pero ahí está. Mientras tanto, sigo tragandome mis palabras.

La verdad que mis DIESES  por Elon.

A mucha gente ha obligado a tragarse sus palabras (yo incluido).

PD: Por cierto, vive en un piso de 35 m2 (además tampoco es pisitófilo).

Título: Re:STEM
Publicado por: sudden and sharp en Julio 07, 2021, 13:03:48 pm

PD: Por cierto, vive en un piso de 35 m2 (además tampoco es pisitófilo).

Pisitófilo sí que era... per le ha hecho caso a pp.cc., y ha vendido pero ya, ya, ya...

Elon Musk vende su última mansión en California por 31 millones de euros
https://www.expansion.com/fueradeserie/arquitectura/album/2021/06/30/60db0a71468aeb13198b46ad.html (https://www.expansion.com/fueradeserie/arquitectura/album/2021/06/30/60db0a71468aeb13198b46ad.html)
[ A saber las que tenía... pero el caso es que se ha puesto en liquidez. Las cosas, como son. ]






De lo otro... yo tampoco compro la moto.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 07, 2021, 19:50:44 pm
No es optimismo es un humo muy bien vendido que le permite obtener dinero para alcanzar objetivos mucho más discretos que, evidentemente son logros y tal. Su principal logro es captar la pasta, en lo que es un genio y que quieren que les diga, es la función principal de un CEO. Es decir, como cabeza de una empresa que necesita crecer me parece un tipo sobresaliente.
Se lo compro porque, efectivamente, el adjetivo optimista implicaría que realmente piensa que esos plazos que anuncia son realistas y yo también pienso que es totalmente consciente de que sus plazos nunca son realistas, pero, omo usted bien dice, cuando realiza esos anuncios está ejerciendo de CEO y las personas a las que se dirige son plenamente conscientes de ello. Otra cosa es que los medios de información, conscientes del hype que genera Elon Musk cada vez que abre la boca aprovechen la coyuntura para su propio beneficio.

El valor de Elon es que con el hipe de esas cosas, al final ha conseguido que sus proyectos tiren para adelante. Al final los 500.000 reservistas del M3 a 35.000 euros acabaron pagando mucho más por él.
También de acuerdo, y si los "reservistas" deciden seguir adelante con la compra a pesar de tener que pagar más por el Model 3 es que tampoco les parecerá tan mal ese incremento del precio.

¿Cómo se llamaba eso de los tubos...lo de la Boring Company?
Si se refiere a la empresa que creó para construir túneles para solucionar el problema de los atascos, sí, es The Boring Company (https://es.wikipedia.org/wiki/The_Boring_Company) y, en mi opinión, esa empresa ha sido más una troleada que otra cosa. Elon Musk sabe perfectamente que es un sinstentido crear túneles para hacer circular por ellos coches en fila india. Si quieres transportar gente de un lado a otro de la ciudad por debajo de la superficie lo que tienes que hacer es crear una red de metro (https://es.wikipedia.org/wiki/Metro_(sistema_de_transporte)). El coste que tiene excavar un tunel, por mucho que se optimice el proceso, es tremendo, y crear una red de transporte subterranea cuya capacidad no se explote al máximo no tiene ningún sentido desde el punto de vista económico.

De hecho me atrevería de decir que Elon Musk decidió excavar el primer túnel que que serviría de "prototipo" (https://www.fastcompany.com/90283399/how-elon-musk-unveiled-the-boring-companys-first-tunnel-prototype) en Los Ángeles para ahorrarse los atascos para ir a su despacho en Space X  y no tiene ningún empacho en reconocerlo  8)

Citar
“I’ve lived in L.A. for 16 years and the traffic has varied between horrible and absolutely excruciating,” Musk told reporters earlier in the day after rides in the tunnel. “I don’t see anything on the horizon that solves it. This is one solution–not to the exclusion of other things—but it’s a path to finally alleviating traffic congestion in cities. This is an early station—a prototype. We’re still figuring things out. But I think it’s a solution that would actually work.”

The 1.14-mile illuminated test tunnel cost $10 million of the $40 million the privately funded company has spent thus far, with Musk contributing an undisclosed amount of his own money. It runs 40 feet beneath 120th Street in Hawthorne, next to Musk’s SpaceX headquarters. (“I wanted to be able to see it from my desk and know if we’re making progress,” he said.)
Si, por el contrario se refiere al Hyperloop (https://es.wikipedia.org/wiki/Hyperloop), Elon Musk se limitó a lanzar la idea al aire y, sinceramente, también creo que no lo ve práctico. La teoría es que una cápsula de Hyperloop podría circular a una velocidad de 1.200 km/h, esa velocidad solo tiene sentido si uno pretende recorrer grandes distancias y, en ese caso, es evidente que el avión es imbatible en cuanto a costes.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 08, 2021, 21:15:30 pm
Aunque este vídeo de Engadget tiene un año y medio, cuando lo vi en su día me pareció muy interesante y creo que encaja perfectamente en este hilo.

En él se puede ver la famosa "máquina" de ASML (https://es.wikipedia.org/wiki/ASML) que, tal y como se comentaba en la noticia de este mensaje (https://www.transicionestructural.net/index.php?topic=2557.msg193877#msg193877) del hilo de pp.cc., en 2017 costaba la friolera de 150 millones de dólares y, para su entrega al cliente, se precisan nada menos que: 40 contenedores, 20 camiones y tres Boeing 747.

(https://i.imgur.com/VZBqRUV.jpg) (https://www.youtube.com/watch?v=oIiqVrKDtLc)
EUV: Lasers, plasma, and the sci-fi tech that will make chips faster | Upscaled (https://www.youtube.com/watch?v=oIiqVrKDtLc)

Saludos.
Título: Re:STEM
Publicado por: Derby en Julio 10, 2021, 21:24:24 pm
http://climateerinvest.blogspot.com/2021/07/forget-5g-6g-is-coming-and-it-could.html (http://climateerinvest.blogspot.com/2021/07/forget-5g-6g-is-coming-and-it-could.html)

Citar
"Forget 5G: 6G Is Coming (And It Could Change Our World Forever)"

The fifth generation of mobile phones and data networks, better known as 5G, gained widespread adoption in 2020. But talk soon began of what we can expect from the next generation after that, 6G.

In late 2020  ATIS—the Alliance for Telecommunications Industry Solutions, added several members to its “Next G Alliance,” which it described at the time as “an initiative that will advance North American mobile technology leadership in 6G and beyond over the next decade, while building on the long-term evolution of 5G.”

Those members, who met last year, included Apple, Google, Intel, Hewlett Packard Enterprise, Charter, Cisco, Keysight Technologies, LG Electronics, Mavenir, MITRE and VMware. They joined existing members AT&T, Bell Canada, Ciena, Ericsson, Facebook, InterDigital, JMA Wireless, Microsoft, Nokia, Qualcomm Technologies Inc., Samsung, T-Mobile, TELUS, Telnyx, UScellular and Verizon.

That report indicated that 6G is unlikely to roll out until the 2030s.

Now, another new report is exploring what 6G might look like. At the recent (virtual) Mobile World Congress, Qualcomm’s leading 5G researcher Tingfang Ji talked about how both “5G Advanced,” as well as its future successor 6G, might look.

As is usually the case with new generations, 6G will likely require new bands of spectrum, with “terahertz spectrum” likely coming into play when it’s time for 6G. Terahertz is 1,000 times faster than gigahertz....
Título: Re:STEM
Publicado por: py en Julio 11, 2021, 00:48:04 am
[url]http://climateerinvest.blogspot.com/2021/07/forget-5g-6g-is-coming-and-it-could.html[/url] ([url]http://climateerinvest.blogspot.com/2021/07/forget-5g-6g-is-coming-and-it-could.html[/url])

Citar
"Forget 5G: 6G Is Coming (And It Could Change Our World Forever)"

The fifth generation of mobile phones and data networks, better known as 5G, gained widespread adoption in 2020. But talk soon began of what we can expect from the next generation after that, 6G.

In late 2020  ATIS—the Alliance for Telecommunications Industry Solutions, added several members to its “Next G Alliance,” which it described at the time as “an initiative that will advance North American mobile technology leadership in 6G and beyond over the next decade, while building on the long-term evolution of 5G.”

Those members, who met last year, included Apple, Google, Intel, Hewlett Packard Enterprise, Charter, Cisco, Keysight Technologies, LG Electronics, Mavenir, MITRE and VMware. They joined existing members AT&T, Bell Canada, Ciena, Ericsson, Facebook, InterDigital, JMA Wireless, Microsoft, Nokia, Qualcomm Technologies Inc., Samsung, T-Mobile, TELUS, Telnyx, UScellular and Verizon.

That report indicated that 6G is unlikely to roll out until the 2030s.

Now, another new report is exploring what 6G might look like. At the recent (virtual) Mobile World Congress, Qualcomm’s leading 5G researcher Tingfang Ji talked about how both “5G Advanced,” as well as its future successor 6G, might look.

As is usually the case with new generations, 6G will likely require new bands of spectrum, with “terahertz spectrum” likely coming into play when it’s time for 6G. Terahertz is 1,000 times faster than gigahertz....



En vez de farolas tendrán que poner antenas y miniaturizar aún más pequeños reactores nucleares para alimentar a éstas y a los dispositivos móviles.


Título: Re:STEM
Publicado por: pollo en Julio 11, 2021, 01:12:36 am
[url]http://climateerinvest.blogspot.com/2021/07/forget-5g-6g-is-coming-and-it-could.html[/url] ([url]http://climateerinvest.blogspot.com/2021/07/forget-5g-6g-is-coming-and-it-could.html[/url])

Citar
"Forget 5G: 6G Is Coming (And It Could Change Our World Forever)"

The fifth generation of mobile phones and data networks, better known as 5G, gained widespread adoption in 2020. But talk soon began of what we can expect from the next generation after that, 6G.

In late 2020  ATIS—the Alliance for Telecommunications Industry Solutions, added several members to its “Next G Alliance,” which it described at the time as “an initiative that will advance North American mobile technology leadership in 6G and beyond over the next decade, while building on the long-term evolution of 5G.”

Those members, who met last year, included Apple, Google, Intel, Hewlett Packard Enterprise, Charter, Cisco, Keysight Technologies, LG Electronics, Mavenir, MITRE and VMware. They joined existing members AT&T, Bell Canada, Ciena, Ericsson, Facebook, InterDigital, JMA Wireless, Microsoft, Nokia, Qualcomm Technologies Inc., Samsung, T-Mobile, TELUS, Telnyx, UScellular and Verizon.

That report indicated that 6G is unlikely to roll out until the 2030s.

Now, another new report is exploring what 6G might look like. At the recent (virtual) Mobile World Congress, Qualcomm’s leading 5G researcher Tingfang Ji talked about how both “5G Advanced,” as well as its future successor 6G, might look.

As is usually the case with new generations, 6G will likely require new bands of spectrum, with “terahertz spectrum” likely coming into play when it’s time for 6G. Terahertz is 1,000 times faster than gigahertz....



En vez de farolas tendrán que poner antenas y miniaturizar aún más pequeños reactores nucleares para alimentar a éstas y a los dispositivos móviles.
Yo sigo intentando ver qué puede revolucionar un cambio incremental en algo que ya existe. Pero bueno, el mundo de la "tecnología" lleva viviendo en estas ridículas hipérboles un par de décadas.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 11, 2021, 21:27:45 pm
Citar
In a First, Scientists Have Connected a Superconductor To a Semiconductor (https://science.slashdot.org/story/21/07/11/1852231/in-a-first-scientists-have-connected-a-superconductor-to-a-semiconductor)
Posted by EditorDavid on Sunday July 11, 2021 @02:57PM from the current-events dept.

Long-time Slashdot reader schwit1 (https://slashdot.org/~schwit1) shares new from SciTechDaily:

Citar
For the first time, University of Basel researchers have equipped an ultrathin semiconductor with superconducting contacts (https://scitechdaily.com/ultrathin-semiconductors-equipped-with-superconducting-contacts-for-the-first-time/). These extremely thin materials with novel electronic and optical properties could pave the way for previously unimagined applications. Combined with superconductors, they are expected to give rise to new quantum phenomena and find use in quantum technology....

With a view to future applications in electronics and quantum technology, researchers are focusing on the development of new components that consist of a single layer (monolayer) of a semiconducting material. Some naturally occurring materials with semiconducting properties feature monolayers of this kind, stacked to form a three-dimensional crystal. In the laboratory, researchers can separate these layers — which are no thicker than a single molecule — and use them to build electronic components. These ultrathin semiconductors promise to deliver unique characteristics that are otherwise very difficult to control, such as the use of electric fields to influence the magnetic moments of the electrons. In addition, complex quantum mechanical phenomena take place in these semiconducting monolayers that may have applications in quantum technology...

A team of physicists, led by Dr. Andreas Baumgartner in the research group of Professor Christian Schönenberger at the Swiss Nanoscience Institute and the Department of Physics of the University of Basel, has now fitted a monolayer of the semiconductor molybdenum disulfide with superconducting contacts (https://doi.org/10.1021/acs.nanolett.1c00615) for the first time...

"In a superconductor, the electrons arrange themselves into pairs, like partners in a dance — with weird and wonderful consequences, such as the flow of the electrical current without a resistance," explains Baumgartner, the project manager of the study. "In the semiconductor molybdenum disulfide, on the other hand, the electrons perform a completely different dance, a strange solo routine that also incorporates their magnetic moments. Now we would like to find out which new and exotic dances the electrons agree upon if we combine these materials."
Mehdi Ramezani, lead author of the study, says that "In principle, the vertical contacts we've developed for the semiconductor layers can be applied to a large number of semiconductors."
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 22, 2021, 20:02:41 pm
El 15 de julio Demis Hassabis (https://en.wikipedia.org/wiki/Demis_Hassabis) publico un tweet en el anunciaba tanto la publicación en Nature de los resultados de AlphaFold2 (https://en.wikipedia.org/wiki/AlphaFold#AlphaFold_2,_2020) (que ya el año pasado sorprendió a todos los expertos que llevan décadas trabajando en el problema del plegado de proteínas puesto que el nuevo algoritmo desarrollado por DeepMind (https://en.wikipedia.org/wiki/DeepMind) hacía palidecer a los mejores algoritmos existentes hasta el momento) como la liberación del código fuente del proyecto.

(https://i.imgur.com/Ohbncc6.jpg)
https://twitter.com/demishassabis/status/1415736975395631111 (https://twitter.com/demishassabis/status/1415736975395631111)

Hoy se ha desvelado lo que se escondía tras la última frase del tweet ("More very soon!") y, ciertamente, ha vuelto a asombrar a propios y extraños ya que han liberado una BB.DD. que contiene la información sobre el plegado de la práctica totalidad de las 20.000 proteínas que expresa el genoma humano  :o.

Citar
AI Firm DeepMind Puts Database of the Building Blocks of Life Online (https://science.slashdot.org/story/21/07/22/165243/ai-firm-deepmind-puts-database-of-the-building-blocks-of-life-online)
Posted by msmash on Thursday July 22, 2021 @12:05PM from the closer-look dept.

Last year the artificial intelligence group DeepMind cracked a mystery that has flummoxed scientists for decades: stripping bare the structure of proteins, the building blocks of life. Now, having amassed a database of nearly all human protein structures, the company is making the resource available online free for researchers to use (https://www.theguardian.com/technology/2021/jul/22/ai-firm-deepmind-puts-database-building-blocks-life-human-protein-structure-free-online). From a report:
Citar
The key to understanding our basic biological machinery is its architecture. The chains of amino acids that comprise proteins twist and turn to make the most confounding of 3D shapes. It is this elaborate form that explains protein function; from enzymes that are crucial to metabolism to antibodies that fight infectious attacks. Despite years of onerous and expensive lab work that began in the 1950s, scientists have only decoded the structure of a fraction of human proteins.

DeepMind's AI program, AlphaFold, has predicted the structure of nearly all 20,000 proteins expressed by humans. In an independent benchmark test that compared predictions to known structures, the system was able to predict the shape of a protein to a good standard 95% of time. DeepMind, which has partnered with the European Molecular Biology Laboratory's European Bioinformatics Institute (EMBL-EBI), hopes the database will help researchers to analyse how life works at an atomic scale by unpacking the apparatus that drives some diseases, make strides in the field of personalised medicine, create more nutritious crops and develop "green enzymes" that can break down plastic.
No es ninguna exageración el afirmar que es un avance tanto o más importante que el que supuso la secuenciación del genoma humano hace algo más de dos décadas.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 23, 2021, 22:45:16 pm
Citar
Startup Claims Breakthrough in Long-Duration Batteries ([url]https://hardware.slashdot.org/story/21/07/23/188240/startup-claims-breakthrough-in-long-duration-batteries[/url])
Posted by msmash on Friday July 23, 2021 @04:01PM from the how-about-that dept.

A four-year-old startup says it has built an inexpensive battery that can discharge power for days using one of the most common elements on Earth: iron ([url]https://www.wsj.com/articles/startup-claims-breakthrough-in-long-duration-batteries-11626946330[/url]). From a report:

Citar
Form Energy's batteries are far too heavy for electric cars. But it says they will be capable of solving one of the most elusive problems facing renewable energy: cheaply storing large amounts of electricity to power grids when the sun isn't shining and wind isn't blowing. The work of the Somerville, Mass., company has long been shrouded in secrecy and nondisclosure agreements. It recently shared its progress with The Wall Street Journal, saying it wants to make regulators and utilities aware that if all continues to go according to plan, its iron-air batteries will be capable of affordable, long-duration power storage by 2025.

Its backers include Breakthrough Energy Ventures, a climate investment fund whose investors include Microsoft co-founder Bill Gates and Amazon founder Jeff Bezos. Form recently initiated a $200 million funding round, led by a strategic investment from steelmaking giant ArcelorMittal one of the world's leading iron-ore producers. Form is preparing to soon be in production of the "kind of battery you need to fully retire thermal assets like coal and natural gas" power plants, said the company's chief executive, Mateo Jaramillo, who developed Tesla's Powerwall battery and worked on some of its earliest automotive powertrains. On a recent tour of Form's windowless laboratory, Mr. Jaramillo gestured to barrels filled with low-cost iron pellets as its key advantage in the rapidly evolving battery space. Its prototype battery, nicknamed Big Jim, is filled with 18,000 pebble-size gray pieces of iron, an abundant, nontoxic and nonflammable mineral.

For a lithium-ion battery cell, the workhorse of electric vehicles and today's grid-scale batteries, the nickel, cobalt, lithium and manganese minerals used currently cost between $50 and $80 per kilowatt-hour of storage, according to analysts. Using iron, Form believes it will spend less than $6 per kilowatt-hour of storage on materials for each cell. Packaging the cells together into a full battery system will raise the price to less than $20 per kilowatt-hour, a level at which academics have said renewables plus storage could fully replace traditional fossil-fuel-burning power plants. A battery capable of cheaply discharging power for days has been a holy grail in the energy industry, due to the problem that it solves and the potential market it creates.

Comunicado de prensa de ayer de ArcelorMittal:

Citar
ArcelorMittal invierte 25 millones de dólares (USD) en Form Energy ([url]https://spain.arcelormittal.com/news-and-media/press-releases/2021/julio/formenergy.aspx[/url])

El acuerdo suscrito representa la segunda inversión realizada a través del Fondo para la Innovación XCarb™ de ArcelorMittal.

ArcelorMittal (“la Sociedad”) anuncia hoy que ha llevado cabo la segunda inversión a través de su recientemente creado Fondo para la Innovación XCarb™, posicionándose como inversor principal en la ronda de financiación de Serie D por valor de 200 millones de dólares (USD) de Form Energy, con una inyección de capital de 25 millones de dólares (USD).

Form Energy, empresa fundada en 2017, está enfocando sus esfuerzos a acelerar el desarrollo de su innovadora tecnología de almacenamiento de energía de bajo coste para permitir el establecimiento de una red eléctrica fiable, segura y alimentada exclusivamente con energía renovable, durante todo el año. La empresa presentó recientemente una nueva batería de hierro-aire que reúne las siguientes características: bajo coste (aproximadamente una décima parte del coste de la tecnología de las baterías de iones de litio); varios días de duración (una duración de 100 horas, lo que permite superar el problema derivado de la naturaleza intermitente de la generación de energía renovable); ampliable e instalable en cualquier lugar.

Paralelamente a la inversión de 25 millones de dólares (USD), ArcelorMittal y Form Energy han suscrito un acuerdo de desarrollo conjunto para explorar la posibilidad de que ArcelorMittal suministre hierro, adaptado a requisitos específicos, a Form Energy como carga férrica para las baterías basadas en su tecnología.

Greg Ludkovsky, responsable de la organización de Investigación y Desarrollo de ArcelorMittal a escala mundial, declaró:

Form Energy se sitúa a la vanguardia en los desarrollos de sistemas de almacenamiento de energía en baterías, a escala de la red eléctrica y de larga duración. La tecnología que han desarrollado, que permite el almacenamiento de energía durante varios días, ofrece un enorme potencial de cara a superar el problema de la intermitencia del suministro de energía renovable. Son exactamente la clase de empresa ambiciosa e innovadora en la que queremos invertir a través de nuestro Fondo para la Innovación XCarb™.

Además de nuestra inversión, existen evidentes sinergias que estamos explorando con ellos. Estas sinergias incluyen desde el suministro por parte de ArcelorMittal de hierro para las soluciones utilizadas en sus baterías, hasta el potencial que ofrecen sus baterías para proporcionarnos un suministro permanente y fiable de energía generada a partir de fuentes renovables para nuestras plantas siderúrgicas, ayudándonos por lo tanto en nuestro proceso de transición hacia una producción siderúrgica neutra en carbono
”.

Mateo Jaramillo, CEO y cofundador de Form Energy, añadió:

Son tiempos apasionantes para Form Energy y nos entusiasma la incorporación de ArcelorMittal como socio empresarial e inversor.

ArcelorMittal es el principal productor siderúrgico y minero a escala mundial y esta inversión demuestra su compromiso con la innovación y la descarbonización profunda. Agradecemos su confianza en nuestro equipo humano y en nuestra tecnología, en la que estamos trabajando con el objetivo de rediseñar el sistema eléctrico global y permitir un futuro con energía limpia
".

La inversión es la segunda realizada por ArcelorMittal a través de su Fondo para la Innovación XCarb™, creado en marzo de 2021. La primera fue una inversión inicial de 10 millones de dólares (USD) en Heliogen, una empresa de tecnología vinculada a las energías renovables cuyo objetivo se centra en “liberar la energía solar para sustituir a los combustibles fósiles”, realizada el pasado 8 de junio.

El Fondo para la Innovación XCarb™ – en el que ArcelorMittal prevé invertir anualmente hasta 100 millones de dólares (USD) – está diseñado para inversiones en empresas dedicadas al desarrollo de tecnologías que ofrecen el potencial de apoyar y acelerar la transición hacia una producción siderúrgica neutra en carbono. El Fondo fue creado por ArcelorMittal en el marco de su iniciativa XCarb™, la cual englobará en el futuro todos los esfuerzos realizados por la Empresa para avanzar hacia la neutralidad en carbono.



El presente documento es una traducción al español, a efectos meramente orientativos, del comunicado de prensa original en inglés y publicado en la página web de la Sociedad [url]http://corporate.arcelormittal.com/[/url] ([url]http://corporate.arcelormittal.com/[/url]). En caso de discrepancia entre ambos documentos, prevalecerá el texto original en inglés.

Saludos.
Título: Re:STEM
Publicado por: Saturio en Julio 24, 2021, 01:40:40 am
Esperemos que sea cierto y no que, simplemente, Acerlor Mittal haya decidido diversificar su negocio con una línea de "dar el pase de startups".



Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 25, 2021, 14:47:41 pm
Aunque hacía ya tiempo que se había conseguido crear imanes bidimensionales, hasta ahora no se había logrado que fuesen estables a temperatura ambiente. Lo relevante de este avance es haber logrado este tipo de imanes y que mantengan sus propiedades no solo a temperatura ambiente sino incluso temperaturas de hasta 100º C.

Según sus descubridores, no ven ningún obstáculo que impidiera el poder fabricarlo de forma masiva y a bajo coste lo cual, evidentemente, allana el camino a posibles usos industriales del mismo, siendo quizás su uso más evidente —al menos, en el campo de la informática—, el de la creación de nuevos tipos de memoria con una mayor densidad de almacenamiento de la información.

Citar
Scientists create world's thinnest magnet (https://phys.org/news/2021-07-scientists-world-thinnest-magnet.html)
by Lawrence Berkeley National Laboratory | July 20, 2021

(https://i.imgur.com/TLBDTmt.jpg)
Illustration of magnetic coupling in a cobalt-doped zinc-oxide monolayer. Red, blue, and yellow spheres represent cobalt, oxygen, and zinc atoms, respectively. Credit: Berkeley Lab

The development of an ultrathin magnet that operates at room temperature could lead to new applications in computing and electronics—such as high-density, compact spintronic memory devices—and new tools for the study of quantum physics.

The ultrathin magnet, which was recently reported in the journal Nature Communications , could make big advances in next-gen memories, computing, spintronics, and quantum physics. It was discovered by scientists at the Department of Energy's Lawrence Berkeley National Laboratory (Berkeley Lab) and UC Berkeley.

"We're the first to make a room-temperature 2-D magnet that is chemically stable under ambient conditions," said senior author Jie Yao, a faculty scientist in Berkeley Lab's Materials Sciences Division and associate professor of materials science and engineering at UC Berkeley.

"This discovery is exciting because it not only makes 2-D magnetism possible at room temperature, but it also uncovers a new mechanism to realize 2-D magnetic materials," added Rui Chen, a UC Berkeley graduate student in the Yao Research Group and lead author on the study.

The magnetic component of today's memory devices is typically made of magnetic thin films. But at the atomic level, these magnetic films are still three-dimensional—hundreds or thousands of atoms thick. For decades, researchers have searched for ways to make thinner and smaller 2-D magnets and thus enable data to be stored at a much higher density.

Previous achievements in the field of 2-D magnetic materials have brought promising results. But these early 2-D magnets lose their magnetism and become chemically unstable at room temperature.

"State-of-the-art 2-D magnets need very low temperatures to function. But for practical reasons, a data center needs to run at room temperature," Yao said. "Theoretically, we know that the smaller the magnet, the larger the disc's potential data density. Our 2-D magnet is not only the first that operates at room temperature or higher, but it is also the first magnet to reach the true 2-D limit: It's as thin as a single atom!"

The researchers say that their discovery will also enable new opportunities to study quantum physics. "Our atomically thin magnet offers an optimal platform for probing the quantum world," Yao said. "It opens up every single atom for examination, which may reveal how quantum physics governs each single magnetic atom and the interactions between them. With a conventional bulk magnet where most of the magnetic atoms are deeply buried inside the material, such studies would be quite challenging to do."

The making of a 2-D magnet that can take the heat

The researchers synthesized the new 2-D magnet—called a cobalt-doped van der Waals zinc-oxide magnet—from a solution of graphene oxide, zinc, and cobalt. Just a few hours of baking in a conventional lab oven transformed the mixture into a single atomic layer of zinc-oxide with a smattering of cobalt atoms sandwiched between layers of graphene. In a final step, graphene is burned away, leaving behind just a single atomic layer of cobalt-doped zinc-oxide.

"With our material, there are no major obstacles for industry to adopt our solution-based method," said Yao. "It's potentially scalable for mass production at lower costs."

To confirm that the resulting 2-D film is just one atom thick, Yao and his team conducted scanning electron microscopy experiments at Berkeley Lab's Molecular Foundry to identify the material's morphology, and transmission electron microscopy imaging to probe the material atom by atom.

With proof in hand that their 2-D material really is just an atom thick, the researchers went on to the next challenge that had confounded researchers for years: Demonstrating a 2-D magnet that successfully operates at room temperature.

X-ray experiments at Berkeley Lab's Advanced Light Source characterized the 2-D material's magnetic parameters under high temperature. Additional X-ray experiments at SLAC National Accelerator Laboratory's Stanford Synchrotron Radiation Lightsource verified the electronic and crystal structures of the synthesized 2-D magnets. And at Argonne National Laboratory's Center for Nanoscale Materials, the researchers imaged the 2-D material's crystal structure and chemical composition using transmission electron microscopy.

As a whole, the research team's lab experiments showed that the graphene-zinc-oxide system becomes weakly magnetic with a 5-6% concentration of cobalt atoms. Increasing the concentration of cobalt atoms to about 12% results in a very strong magnet.

To the researchers' surprise, a concentration of cobalt atoms exceeding 15% shifts the 2-D magnet into an exotic quantum state of "frustration," whereby different magnetic states within the 2-D system are in competition with each other.

And unlike previous 2-D magnets, which lose their magnetism at room temperature or above, the researchers found that the new 2-D magnet not only works at room temperature but also at 100 degrees Celsius (212 degrees Fahrenheit).

"Our 2-D magnetic system shows a distinct mechanism compared to previous 2-D magnets," said Chen. "And we think this unique mechanism is due to the free electrons in zinc oxide."

True north: Free electrons keep magnetic atoms on track

When you command your computer to save a file, that information is stored as a series of ones and zeroes in the computer's magnetic memory, such as the magnetic hard drive or a flash memory. And like all magnets, magnetic memory devices contain microscopic magnets with two poles—north and south, the orientations of which follow the direction of an external magnetic field. Data is written or encoded when these tiny magnets are flipped to the desired directions.

According to Chen, zinc oxide's free electrons could act as an intermediary that ensures the magnetic cobalt atoms in the new 2-D device continue pointing in the same direction—and thus stay magnetic—even when the host, in this case the semiconductor zinc oxide, is a nonmagnetic material.

"Free electrons are constituents of electric currents. They move in the same direction to conduct electricity," Yao added, comparing the movement of free electrons in metals and semiconductors to the flow of water molecules in a stream of water.

The researchers say that new material—which can be bent into almost any shape without breaking, and is 1 millionth the thickness of a single sheet of paper—could help advance the application of spin electronics or spintronics, a new technology that uses the orientation of an electron's spin rather than its charge to encode data. "Our 2-D magnet may enable the formation of ultra-compact spintronic devices to engineer the spins of the electrons," Chen said.

"I believe that the discovery of this new, robust, truly two-dimensional magnet at room temperature is a genuine breakthrough by Jie Yao and his students," said co-author Robert Birgeneau, a faculty senior scientist in Berkeley Lab's Materials Sciences Division and professor of physics at UC Berkeley who co-led the study's magnetic measurements. "In addition to its obvious significance to spintronic devices, this 2-D magnet is fascinating at the atomic level, revealing for the first time how cobalt magnetic atoms interact over 'long' distances" through a complex two-dimensional network, he added.

"Our results are even better than what we expected, which is really exciting. Most of the time in science, experiments can be very challenging," he said. "But when you finally realize something new, it's always very fulfilling."
Saludos.
Título: Re:STEM
Publicado por: saturno en Julio 25, 2021, 17:10:51 pm
Si es cierto lo del magnetismo en 2D, y encima fabricando el imán en un horno común de laboratorio, también me digo que Corea/Taiwan pero sobre todo a China/India se pondrán ya mismo a diseñar las máquinas.

Entiendo que la patente aquí no pesa nada, lo determinante va a ser el diseño de máquinas para fabricar discos donde quepan los servidores de Amazon o de Google en un par de unidades como las de ahora.
Qué digo, ¿dos discos duros ? Uno para datos, y el otro para respaldo ;)

La explicación sobre el comportamiento cuántico de los electrones no lo he entendido.
¿tiene que ver con la operación de lectura/escritura?
Ver Spintronics (https://en.wikipedia.org/wiki/Spintronics)

En 2 o 3 años, veremos las primeras unidades. El parque mundial de PC y smartphones obsoleto en 5 años (supongo que habrá que cambiar los chips controladores de la placa base por otros que sean "cuánticos")
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 25, 2021, 22:18:06 pm
La explicación sobre el comportamiento cuántico de los electrones no lo he entendido.
¿tiene que ver con la operación de lectura/escritura?
Ver Spintronics ([url]https://en.wikipedia.org/wiki/Spintronics[/url])
Para responder a esa pregunta creo que lo más fácil es traer a colación la famosa "ley de Moore" y poner en duda el que, como se ha venido anunciando, esté "muerta":

(https://i.imgur.com/KYMt4IL.png)

Se tiende a asumir que la ley de Moore dejará de cumplirse en el momento en el que las técnicas actuales de fabricación de semiconductores basados en técnicas como la litografía ultravioleta extrema (https://es.wikipedia.org/wiki/Litograf%C3%ADa_ultravioleta_extrema) no den más de si (si vieron el vídeo que traje en un post anterior sobre la fabricación actual de circuitos integrados utilizando EUV sabrán que la tecnología para realizarla es casi de ciencia ficción ya que en este momento no es posible crear lasers que emitan fotones directamente en el ultravioleta extremo y hay que usar el "truco" de excitar los electones de los átomos de esferas microscópicas de estaño que, al decaer, emiten fotones en esa frecuencia del ulravioleta extremo con el que se irradian las máscaras que permiten producir los circuitos integrados con transistores de unos pocos nanómetros).

Pero la realidad es que, igual que se pasó de las tarjetas perforadas a los relés, y de ahí a las válvulas de vacío y más tarde al transistor, hay vida después del circuito integrado tal y como lo conocemos actualmente, y los avances que se están produciendo en fotónica (https://es.wikipedia.org/wiki/Fot%C3%B3nica) y espintrónica (https://es.wikipedia.org/wiki/Espintr%C3%B3nica) permitirán superar las limitaciones que supone el tener que andar haciendo circular electrones en los transistores y nano-cables que los conectan pues la pérdida energética que ello conlleva que se manifiesta principalmente en forma de calor ha sido y sigue suponiendo uno de los principales problemas que tenemos a la hora de crear procesadores más rápidos y eficientes.

Fotónica

La fotónica ha sido un desarrollo crucial en el ámbito de las telecomunicaciones permitiendo crear dispositivos como los switches ópticos (https://en.wikipedia.org/wiki/Optical_transistor) capaces de realizar el enrutado de tráfico entre fibras ópticas sin tener que transformar la señal que viene en forma fotones mediante un foto transistor en electrones para poder procesarla y luego volver a transformarla en fotones mediante un diodo laser una vez decidido el camino que tiene que seguir la señal lo cual es no solo mucho más eficiente sino, sobre todo, mucho más rápido.

(https://i.imgur.com/yp91CZF.jpg)
The overhead view of a new beamsplitter for silicon photonics chips that is the size of one-fiftieth the width of a human hair. Credit: Dan Hixson/University of Utah College of Engineering

Ya hace tiempo que se están empleando esos transistores ópticos en el desarrollo de circuitos integrados  mucho más eficientes que los actuales, no solo por el hecho de que los fotones puedan viajar más rápido que los electrones por un circuito integrado, sino, sobre todo, por lo que se refiere a la reducción de las pérdidas energéticas en forma de calor de las que hablábamos antes. Esto permitiría operar a los transistores ópticos a frecuencias que no son viables para los transistores tradicionales (vid. Más cerca de procesar datos a la velocidad de la luz (https://www.europapress.es/ciencia/laboratorio/noticia-mas-cerca-procesar-datos-velocidad-luz-20150518174034.html)).

Espintrónica

Aunque todavía es una tecnología incipiente, la espintrónica permitió un gran avance en lo que al almacenamiento de información se refiere al permitir la creación de la tecnología GMR (https://es.wikipedia.org/wiki/Magnetorresistencia_gigante) (Giant Magnetoresistance Effect) en la fabricación de las cabezas de lectura/escritura de los discos duros ya en 1997.

Si les interesa el tema les recomiendo la web de  EsPinRed (http://espinred.unizar.es/) la "Red Española de Espintrónica" en la que pueden ver lo que se cuece en el mundillo en la actualidad. En este apartado de dicha web (http://espinred.unizar.es/espintronica/) tienen un buen resumen de la relativamente corta historia de la espintrónica.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 25, 2021, 22:26:45 pm
Como siempre, un interesante post de Francis Villatoro en relación con el ITER (lo anecdótico sería el titular, yo me quedaría con el último párrafo en el que se habla de DEMO y PROTO, los sucesores de ITER)

(https://i.imgur.com/eF95oET.png)
https://twitter.com/emulenews/status/1419361258680299522 (https://twitter.com/emulenews/status/1419361258680299522)

Citar
Atención, pregunta: ¿El imán de ITER puede levantar un portaaviones dos metros en el aire? (https://francis.naukas.com/2021/07/25/atencion-pregunta-el-iman-de-iter-puede-levantar-un-portaaviones-dos-metros-en-el-aire/)
Por Francisco R. Villatoro, el 25 julio, 2021.

(https://i.imgur.com/0paprVq.jpg)

Seguro que has leído alguna vez que «el imán más poderoso del mundo está en el ITER y es tan potente que puede levantar un portaaviones dos metros en el aire». ¿Crees que es posible? ¿Te atreves a repetir el cálculo? El imán citado es el solenoide central de ITER, con forma de cilindro de 18 metros de alto y 4.25 metros de diámetro, y 1000 toneladas de peso; está formado por seis bobinas individuales y contendrá 35.6 kilómetros de hilos superconductores de una aleación de estaño y niobio (Nb₃Sn). El campo magnético máximo en su centro será de 13.1 T (teslas), siendo el más potente de todo ITER. Su objetivo es inyectar una corriente eléctrica de 15 MA (megaamperios) en el plasma durante entre 300 y 500 segundos. Para ello almacenará una energía magnética de 6.4 GJ (gigajulios); los ingenieros de ITER afirman que esta energía sería suficiente para levantar un portaaviones unos dos metros. ¿Crees que es posible?

Repetir el cálculo energético parece sencillo. La energía necesaria para levantar un objeto de masa m a una altura h es igual a U = m g h, donde g es la aceleración de la gravedad; un portaaviones típico (Clase Nimitz) tiene una masa de ~ 100 000 toneladas​, luego se requiere una energía de ~ 2 GJ para levantarlo dos metros. ¿Se han equivocado los ingenieros al realizar su cálculo? Vayamos a la fuente. Hasta donde me consta, lo que dijo Neil Mitchell, jefe de la División de Imanes de ITER, es que las mitades superior e inferior del solenoide central se atraen la una a la otra con una fuerza equivalente a 50 000 toneladas («What happens to the car keys?» Naive question of the week, ITER Newsline, 12 Feb 2018 (https://www.iter.org/fr/newsline/-/2924)). En sus propias palabras, «si se partiera por la mitad el solenide central de 18 metros de altura y si un portaaviones de 100 000 toneladas se situara sobre la parte inferior, el portaaviones se elevaría hasta cerrar el circuito» («if there was a gap in the middle of the 18-metre-high component, and if a 100,000-tonne aircraft-carrier was attached to the bottom, the carrier would indeed be lifted until the gap closed«).

(https://i.imgur.com/lcv5AEi.png)
Fuente: https://www.uv.es/martined/tecweb/Dipolos_magneticos.pdf (https://www.uv.es/martined/tecweb/Dipolos_magneticos.pdf)

Seguro que te habrás dado cuenta de que es imposible que un portaaviones con una eslora de 333 m, una manga de 41 m y un calado (mínimo) de 12 m quepa en un hueco de dos metros entre dos solenoides de 4.25 m de diámetro. ¿Qué pasaría si se colocaran ambas mitades del solenoide central encima y debajo del portaaviones? No sé si sabrás que la fuerza magnética entre dos solenoides decae con la cuarta potencia de la distancia que los separas (aproximo los dos solenoides por dipolos magnéticos). Así resulta que la fuerza magnética sería insuficiente para levantar el portaaviones; la fuerza entre los dos solenoides separados una distancia de 12 metros (calado) sería 6⁴ = 1296 veces más pequeña que si están separados dos metros (y en rigor sería necesaria una distancia de 14 metros que haría la fuerza 7⁴ = 2401 veces más pequeña). De hecho, el artículo de ITER Newsline se pregunta ¿qué pasará con las llaves de los técnicos en la sala de control? Como está situada a unos 30 metros de distancia del solenoide central y la fuerza magnética decae con la distancia al cuadrado, las llaves de los técnicos estarán a salvo en sus bolsillos.

Por cierto, ITER (International Thermonuclear Experimental Reactor) es un reactor experimental de fusión en Cadarache, Francia; su construcción debería finalizar en diciembre de 2025 (momento en que se inyectará el primer plasma); estudiará la física de plasmas hasta 2035, cuando se inyectará deuterio y tritio para lograr la ignición de la fusión. El récord actual de fusión lo ostenta el tokamak JET, que logró en 1997 la producción de 16 MW a partir de una entrada de 24 MW (Q = 0.67). El objetivo de ITER es generar 500 MW a partir de 50 MW (Q = 10) usando 0.5 gramos de combustible. ITER no es capaz de generar energía eléctrica, siendo un primer paso para el futuro DEMO, que podrá hacerlo; finalmente, PROTO será un prototipo de reactor nuclear de fusión que los 35 países miembros de la colaboración ITER podrán replicar. El camino de ITER+DEMO+PROTO llevará a una solución al gran problema del siglo XXI, el problema de la energía; en mi opinión, en la segunda mitad del siglo XXI la energía de fusión dominará la producción de energía eléctrica en el mundo.
Saludos.
Título: Re:STEM
Publicado por: dmar en Agosto 01, 2021, 16:24:27 pm
Como siempre, un interesante post de Francis Villatoro en relación con el ITER (lo anecdótico sería el titular, yo me quedaría con el último párrafo en el que se habla de DEMO y PROTO, los sucesores de ITER)

(https://i.imgur.com/eF95oET.png)
https://twitter.com/emulenews/status/1419361258680299522 (https://twitter.com/emulenews/status/1419361258680299522)

Citar
Atención, pregunta: ¿El imán de ITER puede levantar un portaaviones dos metros en el aire? (https://francis.naukas.com/2021/07/25/atencion-pregunta-el-iman-de-iter-puede-levantar-un-portaaviones-dos-metros-en-el-aire/)
Por Francisco R. Villatoro, el 25 julio, 2021.

(https://i.imgur.com/0paprVq.jpg)


Por cierto, ITER (International Thermonuclear Experimental Reactor) es un reactor experimental de fusión en Cadarache, Francia; su construcción debería finalizar en diciembre de 2025 (momento en que se inyectará el primer plasma); estudiará la física de plasmas hasta 2035, cuando se inyectará deuterio y tritio para lograr la ignición de la fusión. El récord actual de fusión lo ostenta el tokamak JET, que logró en 1997 la producción de 16 MW a partir de una entrada de 24 MW (Q = 0.67). El objetivo de ITER es generar 500 MW a partir de 50 MW (Q = 10) usando 0.5 gramos de combustible. ITER no es capaz de generar energía eléctrica, siendo un primer paso para el futuro DEMO, que podrá hacerlo; finalmente, PROTO será un prototipo de reactor nuclear de fusión que los 35 países miembros de la colaboración ITER podrán replicar. El camino de ITER+DEMO+PROTO llevará a una solución al gran problema del siglo XXI, el problema de la energía; en mi opinión, en la segunda mitad del siglo XXI la energía de fusión dominará la producción de energía eléctrica en el mundo.
Saludos.

Profundizando, leo que está previsto que la primera ignición de ITER con combustible de fisión sería en 2035 y que DEMO empiece a funcionar en 2051.

¿Y qué hacemos nosotros pretendiendo no comer carne en 2050 (medida de eficacia marginal y coste elevado) en vez de estar invirtiendo los fondos verdes en acelerar esos hitos?  ¿Qué se me está escapando?
Título: Re:STEM
Publicado por: el malo en Agosto 09, 2021, 13:28:35 pm
Como siempre, un interesante post de Francis Villatoro en relación con el ITER (lo anecdótico sería el titular, yo me quedaría con el último párrafo en el que se habla de DEMO y PROTO, los sucesores de ITER)

(https://i.imgur.com/eF95oET.png)
https://twitter.com/emulenews/status/1419361258680299522 (https://twitter.com/emulenews/status/1419361258680299522)

Citar
Atención, pregunta: ¿El imán de ITER puede levantar un portaaviones dos metros en el aire? (https://francis.naukas.com/2021/07/25/atencion-pregunta-el-iman-de-iter-puede-levantar-un-portaaviones-dos-metros-en-el-aire/)
Por Francisco R. Villatoro, el 25 julio, 2021.

(https://i.imgur.com/0paprVq.jpg)


Por cierto, ITER (International Thermonuclear Experimental Reactor) es un reactor experimental de fusión en Cadarache, Francia; su construcción debería finalizar en diciembre de 2025 (momento en que se inyectará el primer plasma); estudiará la física de plasmas hasta 2035, cuando se inyectará deuterio y tritio para lograr la ignición de la fusión. El récord actual de fusión lo ostenta el tokamak JET, que logró en 1997 la producción de 16 MW a partir de una entrada de 24 MW (Q = 0.67). El objetivo de ITER es generar 500 MW a partir de 50 MW (Q = 10) usando 0.5 gramos de combustible. ITER no es capaz de generar energía eléctrica, siendo un primer paso para el futuro DEMO, que podrá hacerlo; finalmente, PROTO será un prototipo de reactor nuclear de fusión que los 35 países miembros de la colaboración ITER podrán replicar. El camino de ITER+DEMO+PROTO llevará a una solución al gran problema del siglo XXI, el problema de la energía; en mi opinión, en la segunda mitad del siglo XXI la energía de fusión dominará la producción de energía eléctrica en el mundo.
Saludos.

Profundizando, leo que está previsto que la primera ignición de ITER con combustible de fisión sería en 2035 y que DEMO empiece a funcionar en 2051.

¿Y qué hacemos nosotros pretendiendo no comer carne en 2050 (medida de eficacia marginal y coste elevado) en vez de estar invirtiendo los fondos verdes en acelerar esos hitos?  ¿Qué se me está escapando?

Mi profesor de Biología en BUP y COU nos puso este ejemplo de lo que pasó en su primer día en la Universidad.

Les pusieron unas diapositivas con unos activistas de Green Peace encadenados a unos árboles y otras de unos señores tomando muestras de agua de unos arroyos y análizándolas en el laboratorio. El profesor les preguntó: ¿quién creéis que hace más por el medio ambiente? ¿en cuál de los dos grupos está el verdadero ecologista?

Me acuerdo muchas veces de ese ejemplo.

Esto es igual. Por un lado tenemos a los científicos de verdad que son los que están trabajando por un mundo sostenible. Por otro a los cuatro ecolojetas de salón diciendo que el planeta se va a la mierda porque te comes un filete o has cogido el coche para ir a comprar. De Greta hablamos otro día.

Hace años le leí a PPCC que la siguiente gran burbuja sería la ecología. Hay mucho dinero en juego porque la ecología es un medio perfecto de control social. Decir a la gente que no puede conducir su propio coche queda muy feo y muy de Corea del Norte, pero decirles que no pueden conducirlo por el bien del planeta queda muy bien y hará que la gente no sólo deje el coche en casa sino que denuncien al vecino por coger el suyo. Nadie quiere quedarse sin planeta, ¿verdad?  :troll:

Título: Re:STEM
Publicado por: Derby en Agosto 25, 2021, 00:07:02 am
https://www.reuters.com/article/cerebras-tech/cerebras-systems-connects-its-huge-chips-to-make-ai-more-power-efficient-idUSL1N2PV24H (https://www.reuters.com/article/cerebras-tech/cerebras-systems-connects-its-huge-chips-to-make-ai-more-power-efficient-idUSL1N2PV24H)

Citar
Cerebras Systems connects its huge chips to make AI more power-efficient

(Reuters) - Cerebras Systems, the Silicon Valley startup making the world’s largest computer chip, said on Tuesday it can now weave together almost 200 of the chips to drastically reduce the power consumed by artificial-intelligence work.

Cerebras is one of a number of startups making chips specifically designed for AI and aiming to challenge current market leaders Nvidia Corp and Alphabet Inc’s Google. The company has raised about $475 million in venture capital and has secured deals with pharmaceutical firms GlaxoSmithKline Plc and AstraZeneca Plc to use its chips to speed up drug discovery.

Traditionally, hundreds or even thousands of computer chips are manufactured on a 12-inch (30 cm) silicon disc called a wafer, which is later sliced up into individual chips. Cerebras, by contrast, uses the entire wafer. The huge Cerebras chip can hold more data at once.

But artificial intelligence researchers now have AI models called “neural networks” too big for any single chip to hold, so they must split them up across many chips. The biggest current neural networks are still only a fraction of the complexity of a human brain, but they use much more energy than human brains because the systems that run them become less power-efficient as more chips are added.

Cerebras said on Wednesday that it can put together 192 of its chips to train huge neural networks, but that the power efficiency will stay the same as chips are added. In other words, Cerebras can double the amount of computing its chips do for double the power, unlike current systems that need more than twice as much power to double their computing capacity.

Current AI systems “are in the realm where you’re talking about tens of megawatts of power, and you’re doing it over months. You’re using a the equivalent of a small city’s power to train these networks, Cerebras Chief Executive Andrew Feldman told Reuters. “Power is extremely important.”
Título: Re:STEM
Publicado por: Cadavre Exquis en Agosto 25, 2021, 22:19:45 pm
En relación con el chip de Cerebras vi esta entrada hace unos días en Slashdot:

Citar
What Does It Take to Build the World's Largest Computer Chip? (https://hardware.slashdot.org/story/21/08/23/0224252/what-does-it-take-to-build-the-worlds-largest-computer-chip)
Posted by EditorDavid on Monday August 23, 2021 @03:34AM from the heavy-hardware dept.

The New Yorker looks at Cerebras, a startup which has raised nearly half a billion dollars to build massive plate-sized chips targeted at AI applications — the largest computer chip in the world (https://www.newyorker.com/tech/annals-of-technology/the-worlds-largest-computer-chip).
Citar
In the end, said Cerebras's co-founder Andrew Feldman, the mega-chip design offers several advantages. Cores communicate faster when they're on the same chip: instead of being spread around a room, the computer's brain is now in a single skull. Big chips handle memory better, too. Typically, a small chip that's ready to process a file must first fetch it from a shared memory chip located elsewhere on its circuit board; only the most frequently used data might be cached closer to home...

A typical, large computer chip might draw three hundred and fifty watts of power, but Cerebras's giant chip draws fifteen kilowatts — enough to run a small house. "Nobody ever delivered that much power to a chip," Feldman said. "Nobody ever had to cool a chip like that." In the end, three-quarters of the CS-1, the computer that Cerebras built around its WSE-1 chip, is dedicated to preventing the motherboard from melting. Most computers use fans to blow cool air over their processors, but the CS-1 uses water, which conducts heat better; connected to piping and sitting atop the silicon is a water-cooled plate, made of a custom copper alloy that won't expand too much when warmed, and polished to perfection so as not to scratch the chip. On most chips, data and power flow in through wires at the edges, in roughly the same way that they arrive at a suburban house; for the more metropolitan Wafer-Scale Engines, they needed to come in perpendicularly, from below. The engineers had to invent a new connecting material that could withstand the heat and stress of the mega-chip environment. "That took us more than a year," Feldman said...

In a rack in a data center, it takes up the same space as fifteen of the pizza-box-size machines powered by G.P.U.s. Custom-built machine-learning software works to assign tasks to the chip in the most efficient way possible, and even distributes work in order to prevent cold spots, so that the wafer doesn't crack.... According to Cerebras, the CS-1 is being used in several world-class labs — including the Lawrence Livermore National Laboratory, the Pittsburgh Supercomputing Center, and E.P.C.C., the supercomputing centre at the University of Edinburgh — as well as by pharmaceutical companies, industrial firms, and "military and intelligence customers." Earlier this year, in a blog post, an engineer at the pharmaceutical company AstraZeneca wrote that it had used a CS-1 to train a neural network that could extract information from research papers; the computer performed in two days what would take "a large cluster of G.P.U.s" two weeks.

The U.S. National Energy Technology Laboratory reported that its CS-1 solved a system of equations more than two hundred times faster than its supercomputer, while using "a fraction" of the power consumption. "To our knowledge, this is the first ever system capable of faster-than real-time simulation of millions of cells in realistic fluid-dynamics models," the researchers wrote. They concluded that, because of scaling inefficiencies, there could be no version of their supercomputer big enough to beat the CS-1.... Bronis de Supinski, the C.T.O. for Livermore Computing, told me that, in initial tests, the CS-1 had run neural networks about five times as fast per transistor as a cluster of G.P.U.s, and had accelerated network training even more.
It all suggests one possible work-around for Moore's Law: optimizing chips for specific applications. "For now," Feldman tells the New Yorker, "progress will come through specialization."
Eric Vishria (https://en.wikipedia.org/wiki/Eric_Vishria) (uno de los inversores de Cerebras) resume perfectamente el reto de ingeniería que ha debido suponer la creación de un chip así con este (https://twitter.com/ericvishria/status/1428832884048109570) tweet:

(https://i.imgur.com/bCe17uQ.png)
https://twitter.com/ericvishria/status/1428832884048109570 (https://twitter.com/ericvishria/status/1428832884048109570)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Agosto 25, 2021, 22:48:18 pm
Un par de horas después de la entrada sobre el chip de Cerebras apareció este otro post, esta vez de la mano de Intel que ha dejado de ser el lider indiscutible en el mercado de los semiconductores para ver como otras compañias le comen la tostada:

Citar
45 Teraflops: Intel Unveils Details of Its 100-Billion Transistor AI Chip (https://hardware.slashdot.org/story/21/08/23/0235205/45-teraflops-intel-unveils-details-of-its-100-billion-transistor-ai-chip)
Posted by EditorDavid on Monday August 23, 2021 @05:34AM from the super-semiconductors dept.

At its annual Architecture Day semiconductor event Thursday, Intel revealed new details about its powerful Ponte Vecchio chip for data centers (https://siliconangle.com/2021/08/19/intel-debuts-100b-transistor-ai-chip-alder-lake-hybrid-processor/), reports SiliconANGLE:
Citar
Intel is looking to take on Nvidia Corp. in the AI silicon market with Ponte Vecchio, which the company describes as its most complex system-on-chip or SOC to date. Ponte Vecchio features some 100 billion transistors, nearly twice as many as Nvidia's flagship A100 data center graphics processing unit. The chip's 100 billion transistors are divided among no fewer than 47 individual processing modules made using five different manufacturing processes. Normally, an SOC's processing modules are arranged side by side in a flat two-dimensional design. Ponte Vecchio, however, stacks the modules on one another in a vertical, three-dimensional structure created using Intel's Foveros technology (https://siliconangle.com/2020/06/10/intel-reveals-first-three-dimensional-lakefield-processors-stacked-cores/).

The bulk of Ponte Vecchio's processing power comes from a set of modules aptly called the Compute Tiles. Each Compute Tile has eight Xe cores, GPU cores specifically optimized to run AI workloads. Every Xe core, in turn, consists of eight vector engines and eight matrix engines, processing modules specifically built to run the narrow set of mathematical operations that AI models use to turn data into insights... Intel shared early performance data about the chip in conjunction with the release of the technical details. According to the company, early Ponte Vecchio silicon has demonstrated performance of more than 45 teraflops, or about 45 trillion operations per second.
The article adds that it achieved those speeds while processing 32-bit single-precision floating-point values floating point values — and that at least one customer has already signed up to use Ponte Vecchio.

Citar
The Argonne National Laboratory will include Ponte Vecchio chips in its upcoming $500 million Aurora supercomputer. Aurora will provide one exaflop of performance when it becomes fully operational, the equivalent of a quintillion calculations per second.
A esta noticia y a la de Cerebras yo añadiría la del día 5 de agosto en la que Elon Musk dejaba caer que tenía un as en la manga llamado "Dojo":

Citar
Elon Musk Hints at Tesla's Secret Project 'Dojo' Making the Difference in Race To Full Self-Driving (https://slashdot.org/story/19/08/05/1557209/elon-musk-hints-at-teslas-secret-project-dojo-making-the-difference-in-race-to-full-self-driving)
Posted by msmash on Monday August 05, 2019 @12:03PM from the up-next dept.

Elon Musk set an aggressive deadline for Tesla to achieve full self-driving capability, but the electric automaker might have an ace up its sleeve that mostly went under the radar: project 'Dojo.' (https://electrek.co/2019/08/05/tesla-project-dojo-full-self-driving-elon-musk/) Electrek:
Citar
Over the weekend, Musk hinted that it could make the difference. During Tesla's Autonomy Day earlier this year, Musk and other Tesla executives gave presentations about what the company is doing to try to achieve full self-driving capability by the end of next year. While most people were focused on the unveiling of Tesla's new HW3 'Full Self-Driving Computer,' which was being explained for the first time and is now installed in all new Tesla vehicles, there was a brief mention of another computer, the Dojo computer, that Tesla is working on and it could be a game-changer.

Last weekend, Musk was asked about the secret project and while the CEO didn't reveal anything new, he did hint that it could make the difference. During Autonomy Day, Musk briefly mentioned the project 'Dojo': "We do have a major program at Tesla which we don't have enough time to talk about today called "Dojo." That's a super powerful training computer. The goal of Dojo will be to be able to take in vast amounts of data and train at a video level and do unsupervised massive training of vast amounts of video with the Dojo program -- or Dojo computer."

Como era de esperar, no hizo falta esperar mucho tiempo para averiguar en qué consistía el famoso proyecto "Dojo" puesto que, el día 20 de agosto, durante el Tesla AI day, se presentó oficialmente en sociedad:

Citar
Tesla unveils Dojo supercomputer: world’s new most powerful AI training machine (https://electrek.co/2021/08/20/tesla-dojo-supercomputer-worlds-new-most-powerful-ai-training-machine/)
Fred Lambert | Aug. 20th 2021 3:08 am PT

(https://i.imgur.com/yopKbml.jpg)

At its AI Day, Tesla unveiled its Dojo supercomputer technology while flexing its growing in-house chip design talent.

The automaker claims to have developed the fastest AI training machine in the world.

For years now, Tesla has been teasing the development of a new supercomputer in-house optimized for neural net video training.

Tesla is handling an insane amount of video data from its fleet of over 1 million vehicles, which it uses to train its neural nets.

The automaker found itself unsatisfied with current hardware options to train its computer vision neural nets and believed it could do better internally.

Over the last two years, CEO Elon Musk has been teasing the development of Tesla’s own supercomputer called “Dojo.”

Last year, he even teased that Tesla’s Dojo would have a capacity of over an exaflop, which is one quintillion (1018) floating-point operations per second, or 1,000 petaFLOPS.

It could potentially makes Dojo the new most powerful supercomputer in the world.

Today, at Tesla’s AI Day, the company unveiled Dojo.

Ganesh Venkataramanan, Tesla’s senior director of Autopilot hardware and the leader of the Dojo project, led the presentation.

The engineer started by unveiling Dojo’s D1 chip, which is using 7 nanometer technology and delivers breakthrough bandwidth and compute performance:

(https://i.imgur.com/QUQoE0n.jpg)

This is the second chip designed by the Tesla team internally after the FSD chip found in the FSD computer hardware 3 in Tesla cars.

Venkataramanan had an actual D1 chip on stage:

(https://i.imgur.com/K9v435I.jpg)

The engineer commented on the new D1 chip:

Citar
This was entirely designed by Tesla team internally. All the way from the architecture to the package. This chip is like GPU-level compute with a CPU level flexibility and twice the network chip level IO bandwight.
Tesla claims to have achieved a significant breakthrough in chip bandwidth:

(https://i.imgur.com/RTUhQnf.jpg)

Tesla designed the chip to “seamlessly connect without any glue to each other,” and the automaker took advantage of that by connecting 500,000 nodes together.

It adds the interface, power, and thermal management, and it results in what it calls a training tile:

(https://i.imgur.com/XhhYTbk.jpg)

The result is a 9 PFlops training tile with 36TB per second of bandwight in a less than 1 cubic foot format.

Venkataramanan also had an actual Dojo training tile on stage:

(https://i.imgur.com/i2MguI0.jpg)

The engineer commented on the piece of computing technology:

Citar
It’s unprecedented. This is an amazing piece of engineering.
However, that’s where the unveiling of actual real Dojo hardware stopped for Tesla.

The automaker revealed that it only recently ran a neural network on one of the tiles and Venkataramanan appeared to even surprised Andrej Karpathy, Tesla’s head of AI, on stage by revealing for the first time that Dojo training tile ran one of his neural networks:

(https://i.imgur.com/I7ntzEh.jpg)

But now it still has to form a compute cluster using those training tiles in order to truly build the first Dojo supercomputer.

Tesla says that it can combine 2 x 3 tiles in a tray and two trays in a computer cabinet for over 100 PFlops per cabinet:

(https://i.imgur.com/vLgHzfs.jpg)

But with their incredible bandwidth, Tesla claims that they can link those all together to create the ExaPod.

In a 10-cabinet system, Tesla’s Dojo ExaPod will break the barrier of the ExaFlop of compute – something that supercomputer makers have been trying to achieve for a long time:

(https://i.imgur.com/djT9384.jpg)

Tesla hasn’t put that system together yet, but CEO Elon Musk claimed that it will be operational next year.

It would become the fatest AI training computer in the world while being power efficient and in a relatively small format for a supercomputer.

Tesla plans to use the new supercomputer to train its own neural networks to develop self-driving technology, but it also plans to make it available to other AI developers in the future.

Since it was Tesla’s first shot at developing a supercomputer in-house, the company also believes that there are a lot of room for improvements, and it is teasing 10x improvements in some levels of performance in the next version of Dojo.
Saludos.
Título: Re:STEM
Publicado por: Derby en Septiembre 01, 2021, 15:18:40 pm
https://spectrum.ieee.org/next-gen-chips-will-be-powered-from-below

Citar
NEXT-GEN CHIPS WILL BE POWERED FROM BELOW

Buried interconnects will help save Moore's Law

(...) Delivering that current to billions of transistors is quickly becoming one of the major bottlenecks in high-performance SoC design. As transistors continue to be made tinier, the interconnects that supply them with current must be packed ever closer and be made ever finer, which increases resistance and saps power. This can't go on: Without a big change in the way electrons get to and from devices on a chip, it won't matter how much smaller we can make transistors.

(https://spectrum.ieee.org/media-library/eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpbWFnZSI6Imh0dHBzOi8vYXNzZXRzLnJibC5tcy8yNzI4NDA0Ni9vcmlnaW4ucG5nIiwiZXhwaXJlc19hdCI6MTY0OTk2MjUzNX0.7EiriZDdkMZ_Hjf5BTHiXXD7iP2u12IDNEwMeh-S3Wc/image.png?quality=80&width=1536)

Fortunately, we have a promising solution: We can use a side of the silicon that's long been ignored.

Electrons have to travel a long way to get from the source that is generating them to the transistors that compute with them. In most electronics they travel along the copper traces of a printed circuit board into a package that holds the SoC, through the solder balls that connect the chip to the package, and then via on-chip interconnects to the transistors themselves. It's this last stage that really matters.

To see why, it helps to understand how chips are made. An SoC starts as a bare piece of high-quality, crystalline silicon. We first make a layer of transistors at the very top of that silicon. Next we link them together with metal interconnects to form circuits with useful computing functions. These interconnects are formed in layers called a stack, and it can take a 10-to-20-layer stack to deliver power and data to the billions of transistors on today's chips.

Those layers closest to the silicon transistors are thin and small in order to connect to the tiny transistors, but they grow in size as you go up in the stack to higher levels. It's these levels with broader interconnects that are better at delivering power because they have less resistance.

(https://spectrum.ieee.org/media-library/eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpbWFnZSI6Imh0dHBzOi8vYXNzZXRzLnJibC5tcy8yNzI4NDA2MS9vcmlnaW4ucG5nIiwiZXhwaXJlc19hdCI6MTY1Nzg0MTM3OX0.M2puUw-mqqxQwTcUQ5-dnZI668w8V4jFfCNNzrRXb_s/image.png?quality=80&width=1536)

(...)The future of computing depends upon these new manufacturing techniques. Power consumption is crucial whether you're worrying about the cooling bill for a data center or the number of times you have to charge your smartphone each day. And as we continue to shrink transistors and ICs, delivering power becomes a significant on-chip challenge. BPR and back-side PDNs may well answer that challenge if engineers can overcome the complexities that come with them.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 05, 2021, 21:07:16 pm
Hace unas semanas me tropecé con este hilo sobre ASML que me pareció muy interesante.

(https://i.imgur.com/JE1VRIQ.png)
https://twitter.com/TrungTPhan/status/1429464889307762688 (https://twitter.com/TrungTPhan/status/1429464889307762688)

A continuación, el hilo "desenrrollado":

Citar
What *exactly* does ASML sell?

Its key product is an extreme ultraviolet lithography (EUV) machine, which uses advanced light technology to "print" tiny circuits onto Silicon wafers.

Only ~50 are made a year and ASML has a near monopoly on the machine technology.

(https://i.imgur.com/ShiTOuc.gif)

You def know ASML's main clients: Intel, Samsung and Taiwan Semiconductor Manufacturing Co. (TSMC).

They need EUV to keep Moore's Law ("# of transistors on microchips doubles every 2 years") alive and continue to advance computing.

Total ASML sales in 2020 = $16B+.

(https://i.imgur.com/pgWqRyT.jpg)

The ASML story begins in 1984, as a joint venture between Dutch conglomerate Philips and an electronics maker called Advanced Semiconductor Materials Int.

The project had a very humble start: it was launched in a shed behind a Philip's building in Eindhoven, Netherlands.

(https://i.imgur.com/g7Lcx8w.png)

The venture's first product was called the PA 2000 stepper (think a slide projector "projecting" designs on silicon).

For years, the product failed to make headway against leading Japanese competitors (Nikon, Canon) and, in 1990, ASML was spun out as its own company.

(https://i.imgur.com/2rvxgwt.png)

(https://i.imgur.com/cT4uXo1.png)

(https://i.imgur.com/cCAE2tX.png)

ASML scored its 1st hit product in 1991, giving it momentum to IPO in 1995.

Soon after, it acquired a # of US lithography firms and -- by the end of 1990s -- it had comparable market share to Nikon and Canon.

From there, ASML made 2 big bets that separated it from the pack.

(https://i.imgur.com/HMqeM1v.png)

Both bets were made to keep up with Moore's law.

First: In 2006, ASML released its TWINSCAN system using immersion lithography (it utilizes water as lens to shrink the laser's wavelength = more circuits on chip).

It was ASML's first market-leading product.

(https://i.imgur.com/luOG4yD.png)

Also in the mid-2000s, ASML started spending huge R&D on EUV technology.

It was a massive risk, though: EUV lithography would require Samsung, Intel and TMSC to completely rebuild and redesign their fabrication plants.

From 2008-14, ASML put $5B+ into EUV research.

(https://i.imgur.com/wuRZrdD.jpg)

The science behind EUV was established in the late 1980s. It was a US-led effort between the Dept. of Energy and industry (e.g. AMD, IBM, Intel).

ASML licensed EUV tech in 1999. Canon elected not to pursue it due to financial problems while Nikon chose to develop older tech.

(https://i.imgur.com/MQxbDvP.png)

How EUV works today:

  • A tin droplet drops into a vacuum
  • It's pulsed by a high-power laser
  • Tin atoms are ionized, creating plasma
  • A mirror captures EUV radiation emitted by plasma
  • Mirror transfers EUV to wafer (wavelength=13.5 nanometers, basically X-ray level)

(https://i.imgur.com/fq9wIdK.gif)

The potential of EUV was so great that Intel, Samsung and TMSC -- all competitors -- jointly acquired 23% of ASML.

Intel put up the most: €2.5B for a 15% share (today, the firms have sold down most their stakes).

The first production-ready EUV machine was released in 2016.

(https://i.imgur.com/2XXqGIE.png)

Why are EUVs so expensive?

ASML plays a role similar to Boeing for airplanes (also $100m+ products): it's an integrator of 4750 global high-value parts suppliers:

  • Tooling equipment (US)
  • Chemicals (Japan)
  • Lens (Germany)

(Nikon/Cannon do most production in-house)


(https://i.imgur.com/AkoHxf1.png)

Why can ASML only produce 50 EUV machines a year?

  • Co-ordinating 1000s of suppliers is very difficult (just like an aircraft)
  • Each machine is custom (30+ variables to choose from)
  • Lead-time are long (speciality parts like the Zeiss lens takes 40 weeks to produce)


(https://i.imgur.com/KFhZFom.png)

The delivery process is nuts, too:

  • Each EUV weighs 180 tons
  • A disassembled EUV takes up 40 shipping containers
  • Shipping it (mostly to Asia) takes 20 trucks and 3 Boeing 747s
  • ASML teams must be on-the-ground to maintain them
  • The min spend to house EUVs is $1B

(https://i.imgur.com/S2LdOpE.gif)

Today, ASML has a 90% share in semi lithography (EUV and Deep UV).

EUV tailwinds are huge:

  • Semi CAPEX >$120B+ in 2021 (similar spend in following years)
  • Key sectors (esp. auto AKA Tesla chips) will see growth for years
  • Transition to 5nm process requires more EUV

(https://i.imgur.com/b20245N.png)

Even if machine sales slow, ASML's business is increasingly shifting to system maintenance, relocation and upgrades.

Over a 20yr lifespan of an ASML machine, services-based sales may reach 50% of the initial machine price (w/ high margins)...across a growing installed base.

(https://i.imgur.com/U3pLiOz.png)

With chips needed in everything (data centres, AI, autos, mining), semis are the OIL of the 21st century.

The US has even blocked Dutch exports of EUV-licensed tech to China. As the Tech Cold War heats up, expect to hear more of ASML: the $300B+ giant that started in a shed.

(https://i.imgur.com/mlJnSy2.png)
Y un vídeo que combina fragmentos de animaciones y vídeos publicados por la propia ASML que permiten hacerse una idea de la complejidad de sus máquinas:

(https://i.imgur.com/JD0XT6j.png) (https://www.youtube.com/watch?v=Df3tajBAxdw)
ASML EUV in action (https://www.youtube.com/watch?v=Df3tajBAxdw)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 05, 2021, 21:22:22 pm
Y, relacionado con el tema, una noticia que apareció en WIRED a finales de agosto en la que ASML afirma que todavía les queda bastante recorrido en lo que a reducir el tamaño de los transistores se refiere.

Citar
The $150 Million Machine Keeping Moore’s Law Alive (https://www.wired.com/story/asml-extreme-ultraviolet-lithography-chips-moores-law/)
ASML’s next-generation extreme ultraviolet lithography machines achieve previously unattainable levels of precision, which means chips can keep shrinking for years to come.

(https://i.imgur.com/SyLoghk.jpg)
Each machine is roughly the size of a bus. Shipping their components requires 40 freight containers, three cargo planes, and 20 trucks. | PHOTOGRAPH: ASML

Inside a large clean room in rural Connecticut, engineers have begun constructing a critical component for a machine that promises to keep the tech industry as we know it on track for at least another decade.

The machine is being built by ASML (https://www.asml.com/en), a Dutch company that has cornered the market for etching the tiniest nanoscopic features into microchips (https://www.wired.com/tag/microchips/) with light.

ASML introduced the first extreme ultraviolet (EUV) lithography machines for mass production in 2017, after decades spent mastering the technique. The machines perform a crucial role in the chipmaking ecosystem, and they have been used in the manufacture of the latest, most advanced chips, including those in new iPhones as well as computers used for artificial intelligence (https://www.wired.com/category/artificial-intelligence/). The company’s next EUV system, a part of which is being built in Wilton, Connecticut, will use a new trick to minimize the wavelength of light it uses—shrinking the size of features on the resulting chips and boosting their performance—more than ever before.

The current generation of EUV machines are already, to put it bluntly, kind of bonkers. Each one is roughly the size of a bus and costs $150 million. It contains 100,000 parts and 2 kilometers of cabling. Shipping the components requires 40 freight containers, three cargo planes, and 20 trucks. Only a few companies can afford the machines, and most of them go to the world’s big three leading-edge chipmakers: the world’s leading foundry, Taiwan-based TSMC, as well as Samsung, in South Korea, and Intel.

“It is really an incredible machine,” says Jesús del Alamo (https://mtlsites.mit.edu/users/alamo/delAlamoHome.htm), a professor at MIT who works on novel transistor architectures. “It’s an absolutely revolutionary product, a breakthrough that is going to give a new lease of life to the industry for years.”

In Connecticut, a giant hunk of aluminum has been carved into a frame that will eventually hold a mask, or “reticle,” that moves with nanometer precision while reflecting a beam of extreme ultraviolet light. The light pinballs off several mirrors shaped and polished with astonishing precision to etch features just a few dozen atoms in size onto future computer chips.

The finished component will be shipped to Veldhoven in the Netherlands by the end of 2021, and then added to the first prototype next-generation EUV machine by early 2022. The first chips made using the new systems may be minted by Intel, which has said it will get the first of them, expected by 2023. With smaller features than ever, and tens of billions of components each, the chips that the machine produces in coming years should be the fastest and most efficient in history.

ASML’s latest EUV machine promises to keep alive an idea that has come to symbolize the march of progress—not just in chipmaking, but in the tech industry and the economy at large.

(https://i.imgur.com/iTTShVm.jpg)
Only a handful of companies can afford ASML's giant machine, and China has been blocked from purchasing them altogether. | PHOTOGRAPH: ASML

In 1965, Gordon Moore, an electronics engineer and one of the founders of Intel (https://www.wired.com/tag/intel/), wrote an article (https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/moores-law-electronics.pdf) for the 35th anniversary issue of Electronics (https://newsroom.intel.com/editorials/moores-law-electronics-magazine/#gs.9t0nf2), a trade magazine, that included an observation that has since taken on a life of its own. In the article, Moore noted that the number of components on a silicon chip had roughly doubled each year until then, and he predicted the trend would continue.

A decade later, Moore revised his estimate to two years rather than one. The march of Moore’s law has come into question in recent years, although new manufacturing breakthroughs and chip design innovations have kept it roughly on track.

EUV uses some extraordinary engineering to shrink the wavelength of light used to make chips, and it should help continue that streak. The technology will be crucial for making more advanced smartphones and cloud computers, and also for key areas of emerging technology such as artificial intelligence (https://www.wired.com/tag/artificial-intelligence/), biotechnology (https://www.wired.com/tag/biotech/), and robotics (https://www.wired.com/tag/robotics/). “The death of Moore’s law has been greatly exaggerated,” del Alamos says. “I think it’s going to go on for quite some time.”

Amid the recent chip shortage (https://www.wired.com/story/chip-shortage-electronics-prices-tvs-displays/), triggered by the pandemic’s economic shock waves, ASML’s products have become central to a geopolitical struggle between the US and China, with Washington making it a high priority to block China's access to the machines. The US government has successfully pressured the Dutch not to grant the export licenses needed to send the machines to China, and ASML says it has shipped none to the country.

“You can’t make leading-edge chips without ASML’s machines,” says Will Hunt (https://cset.georgetown.edu/staff/will-hunt-2/), a research analyst at Georgetown University studying the geopolitics of chipmaking. “A lot of it comes down to years and years of tinkering with things and experimenting, and it’s very difficult to get access to that.”

Each component that goes into an EUV machine is “astonishingly sophisticated and extraordinarily complex,” he says.

Making microchips already requires some of the most advanced engineering the world has ever seen. A chip starts out life as a cylindrical chunk of crystalline silicon that is sliced into thin wafers, which are then coated with layers of light-sensitive material and repeatedly exposed to patterned light. The parts of silicon not touched by the light are then chemically etched away to reveal the intricate details of a chip. Each wafer is then chopped up to make lots of individual chips.

Shrinking the components on a chip remains the surest way to squeeze more computational power out of a piece of silicon because electrons pass more efficiently through smaller electronic components, and packing more components into a chip increases its capacity to compute.

Lots of innovations have kept Moore’s law going, including novel chip and component designs. This May, for instance, IBM showed off a new kind of transistor (https://www.wired.com/story/chips-more-powerful-ibm-growing-taller/), sandwiched like a ribbon inside silicon, that should allow more components to be packed into a chip without shrinking the resolution of the lithography.

But reducing the wavelength of light used in chip manufacturing has helped drive miniaturization and progress from the 1960s onwards, and it is crucial to the next advance. Machines that use visible light were replaced by those that use near-ultraviolet, which in turn gave way to systems that employ deep-ultraviolet in order to etch ever smaller features into chips.

A consortium of companies including Intel, Motorola, and AMD began studying EUV as the next step in lithography in the 1990s. ASML joined in 1999, and as a leading maker of lithography technology, sought to develop the first EUV machines. Extreme ultraviolet lithography, or EUV for short, allows a much shorter wavelength of light (13.5 nanometers) to be used, compared with deep ultraviolet, the previous lithographic method (193 nanometers).

Citar
“It’s an absolutely revolutionary product.”
- JESÚS DEL ALAMO, MIT
But it has taken decades to iron out the engineering challenges. Generating EUV light is itself a big problem. ASML’s method involves directing high-power lasers at droplets of tin 50,000 times per second to generate high-intensity light. Lenses absorb EUV frequencies, so the system uses incredibly precise mirrors coated with special materials instead. Inside ASML’s machine, EUV light bounces off several mirrors before passing through the reticle, which moves with nanoscale precision to align the layers on the silicon.

“To tell you the truth, nobody actually wants to use EUV,” says David Kanter, a chip analyst with Real World Technologies. “It's a mere 20 years late and 10X over budget. But if you want to build very dense structures, it’s the only tool you’ve got.”

ASML’s new machine introduces an additional trick to produce smaller features on a chip: a larger numerical aperture, which increases the resolution of imaging by allowing light to travel through the optics at different angles. This requires significantly larger mirrors and new software and hardware to precisely control the components. ASML’s current generation of EUV machines can create chips with a resolution of 13 nanometers. The next generation will use High-NA to craft features 8 nanometers in size.

The most prominent company using EUV today is TSMC, whose customers include Apple, Nvidia, and Intel. Intel was slow to adopt EUV and fell behind rivals as a result, hence its recent decision to outsource some of its production to TSMC.

ASML doesn’t seem to think the progress built on top of its machines will slow.

“I don’t like to talk about the end of Moore’s law, I like to talk about the illusion of Moore's law,” says Martin van den Brink, ASML’s chief technology officer, via a video link from the Netherlands.

Moore’s 1965 article was actually more focused on the march of innovation than just shrinkage, Van den Brink notes. While he expects High-NA EUV to keep spurring progress in the chip industry for at least the next 10 years, he believes that shrinking chip features using lithography will become less important.

Van den Brink says ASML has researched proposed successors to EUV, including e-beam and nanoimprint lithography, but has not found any of them to be reliable enough to justify substantial investment. He predicts that new methods of speeding up the throughput of lithographic machines while accounting for thermal stability and physical disturbances will help increase yield. Even if chips did not become faster, this would result in the most advanced chips becoming cheaper and more widely used.

Van den Brink adds that other manufacturing tricks, including efforts to build components vertically on a chip—something that Intel and others have already begun doing—should keep improving performance. He notes that the executive chairman of TSMC, Mark Liu, has said he expects a threefold improvement in combined performance and efficiency each year for the next 20 years.

Demand for faster chips is hardly likely to go down. Mark Lundstrom (https://www.purdue.edu/discoverypark/birck/directory/profile.php?resource_id=3140), a professor at Purdue who began working in the chip industry in the 1970s, wrote an article (https://science.sciencemag.org/content/299/5604/210) for Science magazine in 2003 that predicted Moore’s law would run into physical limits within a decade. “In my career, multiple times we thought ‘OK, this is the end,’” he says. “But there's no danger at all that things will slow down in 10 years. We'll just have to do it differently.”

Lundstrom remembers visiting his first microchip conference in 1975. “There was this fellow named Gordon Moore giving a talk,” he recalls. “He was well known within the technical community, but nobody else knew him.”

“And I remember the talk that he gave,” Lundstrom adds. “He said, ‘We will soon be able to place 10,000 transistors on a chip.’ And he added, 'What could anyone possibly do with 10,000 transistors on a chip?’”
Saludos.
Título: Re:STEM
Publicado por: senslev en Septiembre 06, 2021, 15:18:10 pm
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/ (https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/)

Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 06, 2021, 20:43:04 pm
Aunque he dudado de si colocar la noticia en el hilo de Coches electricos (https://www.transicionestructural.net/index.php?topic=347.0) creo que encaja mejor aquí, porque el uso de carburo de silicio (https://es.wikipedia.org/wiki/Carburo_de_silicio) como alternativa al silicio para la fabricación de semiconductores es importante para cualquier sistema electrónico que precise regular el flujo de energía eléctrica, tal y como se explicaba en este (https://www.heraldo.es/noticias/sociedad/2018/03/05/paso-tecnologia-del-carburo-silicio-1227230-310.html) artículo publicado en 2018 por El Heraldo de Aragón con la colaboración de la Unidad de Cultura Científica de la Universidad de Zaragoza (https://ucc.unizar.es/).

Citar
Led by Tesla, EVs drive chip industry's shift beyond silicon (https://asia.nikkei.com/Business/Tech/Semiconductors/Led-by-Tesla-EVs-drive-chip-industry-s-shift-beyond-silicon)
Model 3's use of new material spurs competition for energy-efficient alternative

HIDEAKI RYUGEN, ZHANG YAOYU and NAOKI WATANABE, Nikkei staff writers
September 6, 2021 05:56 JST


(https://i.imgur.com/x4qXFv2.jpg)
Smaller inverters, a key EV component, helped give Tesla's Model 3 its sleek design. Silicon carbide contributes to making smaller power components.

TOKYO/OSAKA -- Abundant, easily processed silicon has been the material of choice for decades in the semiconductor industry, but electric vehicles are helping chip away at its dominance in the pursuit of energy efficiency.

Tesla has been a catalyst for this change. The U.S. automaker became the first of its peers to use silicon carbide chips in a mass-produced car, incorporating them into some of its Model 3s. This move gave the power-saving material a boost of momentum in the EV supply chain, with ramifications for the chip industry.

"Thus far, chipmakers have worked together to build up the silicon carbide market, but we've reached the stage of competing with each other," said Kazuhide Ino, chief strategy officer at Japanese chipmaker Rohm.

Silicon carbide, abbreviated SiC, contains silicon and carbon. With chemical bonds stronger than those in silicon, it is the world's third-hardest substance. Processing it requires advanced technology, but the material's stability and other properties let chipmakers cut energy loss by more than half compared with standard silicon wafers.

SiC chips also dissipate heat well, allowing for smaller inverters -- a crucial EV component that regulates the flow of power to the motor.

"The Model 3 has an air resistance factor as low as a sports car's," said Masayoshi Yamamoto, a professor at Nagoya University in Japan. "Scaling down inverters enabled its streamlined design."

(https://i.imgur.com/OETV4sn.jpg)
A Tesla Model 3 inverter containing silicon carbide chips is seen during a teardown. (Photo courtesy of Nagoya University professor Masayoshi Yamamoto)

Tesla's move jolted the chip industry. In June, German chipmaker Infineon Technologies introduced an SiC module for electric vehicle inverters.

"The timing of the expansion of SiC has clearly moved closer than what we had expected," said Takemi Kouzu, manager at Infineon's Japan unit.

Hyundai Motor will use Infineon-made SiC chips in its next-generation EV. These chips are said to enable a more than 5% increase in vehicle range compared with silicon.

French automaker Renault signed a deal in June with Switzerland-based STMicroelectronics for a supply of SiC chips beginning in 2026. The agreement also covers chips made with gallium nitride, another alternative material for semiconductor wafers.

The market for SiC power chips will grow sixfold by 2026 compared with 2020, reaching $4.48 billion, French market research firm Yole Developpement forecasts.

The price gap between silicon and more costly SiC is narrowing. Mass production and other factors have shrunk the difference in cost to about double, from roughly tenfold as recently as five years ago, Yamamoto said. With some chip industry suppliers starting to make bigger SiC wafers, this gap could narrow even further.

Rohm has been a leader in the field, mass-producing the world's first SiC transistor in 2010. German unit SiCrystal, acquired in 2009, makes SiC wafers, giving Rohm a start-to-finish production capability. The Japanese company aims to reach a 30% global market share in SiC chips by fiscal 2025. It recently opened a additional production facility at a plant in Japan's Fukuoka Prefecture, part of plans to grow capacity more than fivefold.

Rohm said a number of upcoming electric vehicle models will use its SiC chips. It also has an agreement with Chinese EV maker Geely on technology for next-generation chips.

(https://i.imgur.com/iUkm6H9.jpg)

Silicon was not the first chip material. After the groundbreaking invention of the transistor at Bell Laboratories in the U.S. in 1947, germanium crystals were used. Silicon replaced this element in the 1960s as the semiconductor industry took off. Two of the world's biggest silicon wafer suppliers -- Shin-Etsu Chemical and Sumco -- are based in Japan.

SiC also has rivals as an alternative to silicon. Gallium nitride (GaN) holds the potential to cut energy loss to about one-tenth as much as with silicon chips. The use of this material in semiconductors was developed in Japan to create blue light-emitting diodes. While GaN chips are used in some areas, such as charging devices, the material has yet to show its full potential because it has mostly been used in conjunction with other materials, including silicon.

The search for alternatives to silicon reflects the increasingly apparent limits to improvement in chip performance. The development of smaller, more powerful electronics requires etching ever more minute circuit patterns. With this scale now at 5 nanometers (1 nanometer equals one billionth of a meter), the projection that transistor density will double roughly every two years -- known as Moore's Law -- is being tested like never before.

Energy conservation also drives innovations in chip materials. The expansion of EVs, data centers and other building blocks of the digital economy will create vast unmet demand for electricity without steps to improve energy efficiency.

U.S. startup Lab 91, a spinoff of the University of Texas at Austin, is developing technology to overlay graphene -- sheets of carbon just one atom thick -- on chip wafers. Early trials have been successful, and the company is in talks with chipmakers on evaluating the technology for mass production. Graphene holds the potential to improve chip performance in a wide range of applications, from EVs to LEDs to image sensors used in smartphone cameras.

Diamond -- called by some the ultimate semiconductor -- is a potentially game-changing but costly alternative to silicon. Tokyo-based manufacturer Adamant Namiki Precision Jewel has developed technology for producing power chips with diamond. The world's hardest substance has a theoretical ability to cut energy loss to one-50,000th as much as silicon. But making such chips cost-effective will be key. Diamond substrates now cost thousands of times as much as silicon wafers.

With semiconductors vital to national security and economic competitiveness, governments in China, the U.S. and Europe are looking to back research and development into new chip materials. Support for R&D and investment in this field was part of a semiconductor strategy issued by Japan's Ministry of Economy, Trade and Industry in June. As silicon stood alongside steel as one of the materials that built the 20th century, the next great semiconductor material looks likely to become a driver of international competition in the coming decades.
Saludos.
Título: Re:STEM
Publicado por: pollo en Septiembre 07, 2021, 14:22:37 pm
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/ (https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/)
No es por joder, pero esto no es nada nuevo, ni como invento ni como concepto. Será nuevo para el que redactó el artículo. La novedad real aquí es el tamaño. Está teorizado que este tipo de componentes pueden abrir nuevos tipos de lógica de procesamiento, pero de ahí al salto cósmico que hace el artículo (habemus cerebro electrónico) hay como varios miles de toneladas de sensacionalismo y saltos de fe.

Una de las principales causas de que no haya una IA que realmente pueda llamarse así es que no hay un modelo teórico, ni siquiera uno aproximado o muy de brocha gorda de cómo funciona en realidad un cerebro. Nadie sabe cómo localizar un recuerdo concreto en un cerebro, porque no se sabe de qué forma se guarda esta información, ni tampoco cómo se procesan las cosas ni por qué surge la conciencia.

Ya pueden echarle toda la fuerza bruta al problema (en forma de gigacomputadoras que "entrenan" redes cada vez más gordas) que quieran, es un problema de calidad y no de cantidad. El paradigma actual de "IA" da para lo que da, y las aplicaciones son las que son, muy específicas, que es lo que se puede conseguir con los paradigmas creados en los años 60/70 (siguen siendo esos) pero con la potencia de hoy día. No ha habido nuevos paradigmas fundamentales desde entonces, sólo pequeñas evoluciones.

Un niño sigue siendo capaz de reconocer un gato con ver dos o tres ejemplos, a la vez que aprende lo que es un árbol y lo que son tropecientasmil cosas más, mientras que los programas actuales necesitan como mínimo decenas de miles de ejemplos correctamente clasificados para reconocer (y con sesgos si los ejemplos no están perfectamente seleccionados) una única clase de cosas y que son engañables de formas triviales. Cambiar, transferir o generalizar estos entrenamientos requieren papers enteros y cantidades enormes de preproceso. Obviamente algo fundamental se nos escapa.

El ejemplo de los coches autónomos es muy significativo. El 85% fácil del problema (por decir algo) ya se ha resuelto, pero el 15% restante es el que impide que se pueda aplicar como nos han vendido: las situaciones no previsibles. Se está empezando la casa por el tejado. Si no conoces cómo funciona el mundo, no puedes esperar interactuar de formas complejas con él. Se están intentando emular procesos cognitivos resultado de una interacción completa con el mundo durante años.
El símil que mejor se me ocurre es esperar que alguien juegue al basket como Jordan sólo a base de mirar muchísimos vídeos de cómo lo hace. Eso no funciona así. Quizá valga para el ajedrez y otros problemas con información perfecta, reglas determinísticas y acotados, pero no para el mundo físico, que no tiene ninguna de esas tres cosas.

El tener nuevos componentes que permitan nuevos paradigmas de computación no implica que tengamos idea de cómo son esos nuevos paradigmas, que es el principal problema que queda por resolver, y del que no hay ningún paso dado aún, porque no se sabe cuál es el primer paso.

Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.

Qué pereza. El mundo de "la tecnología" se ha vuelto postureo puro.
Título: Re:STEM
Publicado por: el malo en Septiembre 07, 2021, 15:29:09 pm
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/ (https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/)
No es por joder, pero esto no es nada nuevo, ni como invento ni como concepto. Será nuevo para el que redactó el artículo. La novedad real aquí es el tamaño. Está teorizado que este tipo de componentes pueden abrir nuevos tipos de lógica de procesamiento, pero de ahí al salto cósmico que hace el artículo (habemus cerebro electrónico) hay como varios miles de toneladas de sensacionalismo y saltos de fe.

Una de las principales causas de que no haya una IA que realmente pueda llamarse así es que no hay un modelo teórico, ni siquiera uno aproximado o muy de brocha gorda de cómo funciona en realidad un cerebro. Nadie sabe cómo localizar un recuerdo concreto en un cerebro, porque no se sabe de qué forma se guarda esta información, ni tampoco cómo se procesan las cosas ni por qué surge la conciencia.

Ya pueden echarle toda la fuerza bruta al problema (en forma de gigacomputadoras que "entrenan" redes cada vez más gordas) que quieran, es un problema de calidad y no de cantidad. El paradigma actual de "IA" da para lo que da, y las aplicaciones son las que son, muy específicas, que es lo que se puede conseguir con los paradigmas creados en los años 60/70 (siguen siendo esos) pero con la potencia de hoy día. No ha habido nuevos paradigmas fundamentales desde entonces, sólo pequeñas evoluciones.

Un niño sigue siendo capaz de reconocer un gato con ver dos o tres ejemplos, a la vez que aprende lo que es un árbol y lo que son tropecientasmil cosas más, mientras que los programas actuales necesitan como mínimo decenas de miles de ejemplos correctamente clasificados para reconocer (y con sesgos si los ejemplos no están perfectamente seleccionados) una única clase de cosas y que son engañables de formas triviales. Cambiar, transferir o generalizar estos entrenamientos requieren papers enteros y cantidades enormes de preproceso. Obviamente algo fundamental se nos escapa.

El ejemplo de los coches autónomos es muy significativo. El 85% fácil del problema (por decir algo) ya se ha resuelto, pero el 15% restante es el que impide que se pueda aplicar como nos han vendido: las situaciones no previsibles. Se está empezando la casa por el tejado. Si no conoces cómo funciona el mundo, no puedes esperar interactuar de formas complejas con él. Se están intentando emular procesos cognitivos resultado de una interacción completa con el mundo durante años.
El símil que mejor se me ocurre es esperar que alguien juegue al basket como Jordan sólo a base de mirar muchísimos vídeos de cómo lo hace. Eso no funciona así. Quizá valga para el ajedrez y otros problemas con información perfecta, reglas determinísticas y acotados, pero no para el mundo físico, que no tiene ninguna de esas tres cosas.

El tener nuevos componentes que permitan nuevos paradigmas de computación no implica que tengamos idea de cómo son esos nuevos paradigmas, que es el principal problema que queda por resolver, y del que no hay ningún paso dado aún, porque no se sabe cuál es el primer paso.

Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.

Qué pereza. El mundo de "la tecnología" se ha vuelto postureo puro.

De acuerdo al 100% con una matización. El poder computativo no va a conserguir IA "de verdad", pero puede conseguir cosas "que se le parezcan" a base de simular millones de escenarios.

Yo creo que el coche autónomo llegará a ser una realidad aunque no sepa qué hacer en caso de riada o de que un avión aterrice delante nuestro en la autopista porque un humano corriente tampoco sabría qué hacer porque nunca se ha enfrentado a esas situaciones en su vida. En el momento en que las muertes por accidentes de coches autónomos sean sustancialmente menores que las de hoy dia (en las mismas condiciones de tráfico, climatología, carreteras, etc.), se hará un balance coste/beneficio y se implantará.

"Los beneficios superarán a los riesgos". ¿Les suena?


Título: Re:STEM
Publicado por: pollo en Septiembre 07, 2021, 20:54:18 pm
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/ (https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/)
No es por joder, pero esto no es nada nuevo, ni como invento ni como concepto. Será nuevo para el que redactó el artículo. La novedad real aquí es el tamaño. Está teorizado que este tipo de componentes pueden abrir nuevos tipos de lógica de procesamiento, pero de ahí al salto cósmico que hace el artículo (habemus cerebro electrónico) hay como varios miles de toneladas de sensacionalismo y saltos de fe.

Una de las principales causas de que no haya una IA que realmente pueda llamarse así es que no hay un modelo teórico, ni siquiera uno aproximado o muy de brocha gorda de cómo funciona en realidad un cerebro. Nadie sabe cómo localizar un recuerdo concreto en un cerebro, porque no se sabe de qué forma se guarda esta información, ni tampoco cómo se procesan las cosas ni por qué surge la conciencia.

Ya pueden echarle toda la fuerza bruta al problema (en forma de gigacomputadoras que "entrenan" redes cada vez más gordas) que quieran, es un problema de calidad y no de cantidad. El paradigma actual de "IA" da para lo que da, y las aplicaciones son las que son, muy específicas, que es lo que se puede conseguir con los paradigmas creados en los años 60/70 (siguen siendo esos) pero con la potencia de hoy día. No ha habido nuevos paradigmas fundamentales desde entonces, sólo pequeñas evoluciones.

Un niño sigue siendo capaz de reconocer un gato con ver dos o tres ejemplos, a la vez que aprende lo que es un árbol y lo que son tropecientasmil cosas más, mientras que los programas actuales necesitan como mínimo decenas de miles de ejemplos correctamente clasificados para reconocer (y con sesgos si los ejemplos no están perfectamente seleccionados) una única clase de cosas y que son engañables de formas triviales. Cambiar, transferir o generalizar estos entrenamientos requieren papers enteros y cantidades enormes de preproceso. Obviamente algo fundamental se nos escapa.

El ejemplo de los coches autónomos es muy significativo. El 85% fácil del problema (por decir algo) ya se ha resuelto, pero el 15% restante es el que impide que se pueda aplicar como nos han vendido: las situaciones no previsibles. Se está empezando la casa por el tejado. Si no conoces cómo funciona el mundo, no puedes esperar interactuar de formas complejas con él. Se están intentando emular procesos cognitivos resultado de una interacción completa con el mundo durante años.
El símil que mejor se me ocurre es esperar que alguien juegue al basket como Jordan sólo a base de mirar muchísimos vídeos de cómo lo hace. Eso no funciona así. Quizá valga para el ajedrez y otros problemas con información perfecta, reglas determinísticas y acotados, pero no para el mundo físico, que no tiene ninguna de esas tres cosas.

El tener nuevos componentes que permitan nuevos paradigmas de computación no implica que tengamos idea de cómo son esos nuevos paradigmas, que es el principal problema que queda por resolver, y del que no hay ningún paso dado aún, porque no se sabe cuál es el primer paso.

Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.

Qué pereza. El mundo de "la tecnología" se ha vuelto postureo puro.

De acuerdo al 100% con una matización. El poder computativo no va a conserguir IA "de verdad", pero puede conseguir cosas "que se le parezcan" a base de simular millones de escenarios.

Yo creo que el coche autónomo llegará a ser una realidad aunque no sepa qué hacer en caso de riada o de que un avión aterrice delante nuestro en la autopista porque un humano corriente tampoco sabría qué hacer porque nunca se ha enfrentado a esas situaciones en su vida. En el momento en que las muertes por accidentes de coches autónomos sean sustancialmente menores que las de hoy dia (en las mismas condiciones de tráfico, climatología, carreteras, etc.), se hará un balance coste/beneficio y se implantará.

"Los beneficios superarán a los riesgos". ¿Les suena?
No estoy de acuerdo en los ejemplos.

Las situaciones no previstas no son cosas extremadamente raras. Las situaciones no previstas son las infinitas posibilidades de cosas rutinarias no previstas que pueden ocurrir, y que no puedes simular porque es básicamente un problema intratable (¿cómo simulas o entrenas en un modelo lo que no es predecible ni repetitivo?)

Pongo algunos ejemplos:
- interpretar las señas de un agente de la autoridad -> ¿qué son esas señas? ¿cómo interpretas los matices en ellas, que dependen de cada persona? ¿cómo deshaces la ambigüedad en los gestos? ¿cómo interpreta un programa, que te dicen que pares, que vayas rápido, despacio, etc., cuando ni siquiera hay una forma universal de hacer estas señas?

- interpretar qué es un agente de la autoridad -> ¿llevan uniforme? ¿siempre? ¿qué uniforme? ¿qué pasa si es uno de otro país? ¿qué pasa si es un disfraz (que un humano reconocería inmediatamente)? ¿qué pasa si es alguien con gorra? ¿qué pasa si es alguien con un uniforme parecido?

- ¿y en caso de emergencias? ¿cómo dejo paso al ambulancia? ¿mi programa es capaz de saltarse las normas temporalmente, haciendo "lo que más convenga" en cada caso (cómo se define eso siquiera)?

- ¿qué pasa si hay un cartel con indicaciones? ¿cómo puede el programa reconocer lo que dice el cartel, ponerlo en contexto, decidir si es relevante o no y tomar una decisión en base a ello sin dejar de seguir el resto de reglas (y entendiendo lo que pone)? A lo mejor el cartel pone "sólo laborables", con tres de las letras borradas y una con mierda encima. O pone "sólo vehículos autorizados".

- ¿cómo sabe el programa que ese papel de periódico rodando no es una piedra? ¿cómo sabe el programa que eso que está pintado ahí no es un humano sino el dibujo de un humano? ¿cómo sabe el programa que eso que parece una mancha es un bache o que eso que parece un bache es una mancha?

- ¿paro ante un animal o no? ¿qué tipo de animal? ¿y si es una vaca? ¿y si es un perro grande? ¿y si es una paloma? ¿o un gorrión?  ¿y si es una pata con pollitos detrás? ¿y si es un dibujo? ¿y si es una pelota? ¿y si es una pelota de tenis? ¿una de gomaespuma? ¿un rodamiento de acero? (todas son similares, todas tienen implicaciones diferentes para un vehículo)

- ¿eso de ahí es un vehículo muy blanco o es espacio libre? (esto fue causa de un accidente real de un Tesla) ¿esas líneas son parte de la carretera o son una polla pintada? ¿esas líneas que casi no se ven son de la carretera, o son las viejas que ya no valen? ¿ese reflejo que hace el sol en el asfalto más nuevo son marcas viales o no? ¿qué hago ante señales confusas o contradictorias de los sensores (por suciedad, sol, agua, etc.)?

- ¿como intepreto estas líneas y señales contradictorias en una carretera en obras, que se cruzan unas con otras? (la persona aquí no tiene problema ninguno porque entiende el contexto y la intención) ¿qué interpreto con una señal tapada con una bolsa de basura medio rota? ¿qué hago cuando hay errores en la propia señalización? ¿y cuando me ordenan ir en dirección aparentemente contraria porque se ha habilitado un carril del sentido opuesto de forma temporal? ¿y si sólo hay gravilla y conos para marcar el camino? ¿y si sólo hay cinta de obra marcando los límites?

Todo esto y mucho más puede pasar en cualquier momento en muchos sitios, y ya no digamos en ciudad, donde ni he entrado. Interpretar todo esto requiere una única habilidad: saber interpretar la realidad. Los modelos actuales sólo saben interpretar muestras muy concretas de la realidad y reaccionar ante casos concretos de la misma previsibles y comunes en el tráfico.

Se habla de la supuesta fiabilidad de los ordenadores a la hora de conducir, pero hay una trampa conceptual que se obvia: sumar 2 + 2 es algo que un ordenador puede hacer en nanosegundos.

Que un niño de 5 años pueda sumar 2 + 2 en un cuaderno implica una complejidad mucho mayor: el niño no tiene circuitos especializados para sumar.

Sin embargo entiende lo que se le está pidiendo con un lenguaje muy complejo y lleno de ambigüedades, sabe lo que es un número, sabe agarrar un lápiz (imitar una mano humana de forma general es hoy por hoy imposible), sabe usarlo para hacer trazos en un papel que tienen un significado y que puede interpretar o reinterpretar y además puede recibir realimentación para saber si lo que está haciendo es correcto o no, y reflexionar sobre lo que está haciendo, poniéndolo en contexto con todo lo que ya sabe.

¿Quién es más "potente"?

¿Es "mejor" un pez que un humano porque nada más rápido y respira bajo el agua, al contrario que el humano que se ahoga? ¿No será más bien que la pregunta está mal planteada?

Para conducir, estamos diciendo la falacia de que los humanos son muy poco fiables, cuando yo diría que es exactamente lo contrario. Si no fuesen tan fiables, y dada la complejidad cognitiva de la tarea y la cantidad tan inmensa de Km diarios que se hacen en el mundo, tendríamos miles de millones de accidentes todos los días. Es obvio que los seres humanos tienen puntos débiles (falta de disciplina, cansancio, incompetencia, pasar de las normas, distracciones, etc.), pero de momento son mucho más versátiles que lo que haga un programa y desde luego, un humano no decide a propósito estamparse contra algo que de repente le pareció un hueco en la carretera, en cualquier momento aleatorio, o frenar en seco porque pasó rodando un periódico en frente del coche y el programa lo interpretó como una piedra grande en medio de la carretera.

De momento no podremos saber si esas situaciones que comento son un punto débil de los coches autónomos de ahora mismo, porque no van a ponerlos a prueba en condiciones no controladas ni de broma (saben que van a fallar). De momento están en determinadas ciudades con determinadas características (sobre todo suburbios yankees), porque es donde tienen un entorno más predecible y donde no se arriesgan y la solución válida a todo es "para", porque no hay más decisiones que tomar.

Yo no tengo la demostración de que un coche autónomo pueda lidiar con situaciones que para una persona fuesen triviales. Si fuera así, ya estarían requeteimplantados, y en todo tipo de climas, ciudades, etc. No puedes entrenar ni simular lo que es impredecible por definición. Si se quiere hacer lo que nos están vendiendo, hace falta otro enfoque.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 07, 2021, 22:36:43 pm
Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.
A raíz de esto (sobre el que hecho de que el cerebro y su funcionamiento siguen siendo grandes desconocidos para la ciencia), efectivamente, así es, y aunque se va avanzando poco a poco todavía queda mucho camino por recorrer.

Hace cinco días apareció este artículo en QuantaMagazine que me pareció muy interesante porque un grupo de científicos, queriendo arrojar algo más de luz sobre el tema, se ha preguntado cual sería el tamaño de una red neuronal que fuese capaz de "imitar" a una simple neurona.

Para el experimento hicieron una simulación "tradicional" de una neurona (eligieron una neurona de tipo piramidal del cortex de una rata) y luego trataron de crear una red neuronal lo más simple posible que fuera capaz de "imitar" a la neurona simulada.

Sin ánimo de hacer spoilers, les sorprendió comprobar que hacía falta una red neuronal bastante más compleja de lo que pensaban para que la red neuronal pudiera replicar con precisión el funcionamiento de la neurona simulada. Su conclusión es que, para imitar a una neurona "real", hace falta una red neuronal de unas 1000 "neuronas".

Citar
How Computationally Complex Is a Single Neuron? (https://www.quantamagazine.org/how-computationally-complex-is-a-single-neuron-20210902/)
Computational neuroscientists taught an artificial neural network to imitate a biological neuron. The result offers a new way to think about the complexity of single brain cells.
Allison Whitten | Writing Intern | September 2, 2021

(https://i.imgur.com/7cGuoWr.jpg)

Our mushy brains seem a far cry from the solid silicon chips in computer processors, but scientists have a long history of comparing the two. As Alan Turing put it in 1952: “We are not interested in the fact that the brain has the consistency of cold porridge.” In other words, the medium doesn’t matter, only the computational ability.

Today, the most powerful artificial intelligence systems employ a type of machine learning called deep learning. Their algorithms learn by processing massive amounts of data through hidden layers of interconnected nodes, referred to as deep neural networks. As their name suggests, deep neural networks were inspired by the real neural networks in the brain, with the nodes modeled after real neurons — or, at least, after what neuroscientists knew about neurons back in the 1950s, when an influential neuron model called the perceptron was born. Since then, our understanding of the computational complexity of single neurons has dramatically expanded, so biological neurons are known to be more complex than artificial ones. But by how much?

To find out, David Beniaguev, Idan Segev and Michael London, all at the Hebrew University of Jerusalem, trained an artificial deep neural network to mimic the computations of a simulated biological neuron. They showed that a deep neural network requires between five and eight layers of interconnected “neurons” to represent the complexity of one single biological neuron.

Even the authors did not anticipate such complexity. “I thought it would be simpler and smaller,” said Beniaguev. He expected that three or four layers would be enough to capture the computations performed within the cell.

Timothy Lillicrap, who designs decision-making algorithms at the Google-owned AI company DeepMind, said the new result suggests that it might be necessary to rethink the old tradition of loosely comparing a neuron in the brain to a neuron in the context of machine learning. “This paper really helps force the issue of thinking about that more carefully and grappling with to what extent you can make those analogies,” he said.

The most basic analogy between artificial and real neurons involves how they handle incoming information. Both kinds of neurons receive incoming signals and, based on that information, decide whether to send their own signal to other neurons. While artificial neurons rely on a simple calculation to make this decision, decades of research have shown that the process is far more complicated in biological neurons. Computational neuroscientists use an input-output function to model the relationship between the inputs received by a biological neuron’s long treelike branches, called dendrites, and the neuron’s decision to send out a signal.

This function is what the authors of the new work taught an artificial deep neural network to imitate in order to determine its complexity. They started by creating a massive simulation of the input-output function of a type of neuron with distinct trees of dendritic branches at its top and bottom, known as a pyramidal neuron, from a rat’s cortex. Then they fed the simulation into a deep neural network that had up to 256 artificial neurons in each layer. They continued increasing the number of layers until they achieved 99% accuracy at the millisecond level between the input and output of the simulated neuron. The deep neural network successfully predicted the behavior of the neuron’s input-output function with at least five — but no more than eight — artificial layers. In most of the networks, that equated to about 1,000 artificial neurons for just one biological neuron.

(https://i.imgur.com/6bUEqnu.gif)
Neuroscientists now know that the computational complexity of a single neuron, like the pyramidal neuron at left, relies on the dendritic treelike branches, which are bombarded with incoming signals. These result in local voltage changes, represented by the neuron’s changing colors (red means high voltage, blue means low voltage) before the neuron decides whether to send its own signal called a “spike.” This one spikes three times, as shown by the traces of individual branches on the right, where the colors represent locations of the dendrites from top (red) to bottom (blue).

“[The result] forms a bridge from biological neurons to artificial neurons,” said Andreas Tolias, a computational neuroscientist at Baylor College of Medicine.

But the study’s authors caution that it’s not a straightforward correspondence yet. “The relationship between how many layers you have in a neural network and the complexity of the network is not obvious,” said London. So we can’t really say how much more complexity is gained by moving from, say, four layers to five. Nor can we say that the need for 1,000 artificial neurons means that a biological neuron is exactly 1,000 times as complex. Ultimately, it’s possible that using exponentially more artificial neurons within each layer would eventually lead to a deep neural network with one single layer — but it would likely require much more data and time for the algorithm to learn.

“We tried many, many architectures with many depths and many things, and mostly failed,” said London. The authors have shared their code to encourage other researchers to find a clever solution with fewer layers. But, given how difficult it was to find a deep neural network that could imitate the neuron with 99% accuracy, the authors are confident that their result does provide a meaningful comparison for further research. Lillicrap suggested it might offer a new way to relate image classification networks, which often require upward of 50 layers, to the brain. If each biological neuron is like a five-layer artificial neural network, then perhaps an image classification network with 50 layers is equivalent to 10 real neurons in a biological network.

The authors also hope that their result will change the present state-of-the-art deep network architecture in AI. “We call for the replacement of the deep network technology to make it closer to how the brain works by replacing each simple unit in the deep network today with a unit that represents a neuron, which is already — on its own — deep,” said Segev. In this replacement scenario, AI researchers and engineers could plug in a five-layer deep network as a “mini network” to replace every artificial neuron.

But some wonder whether this would really benefit AI. “I think that’s an open question, whether there’s an actual computational advantage,” said Anthony Zador, a neuroscientist at Cold Spring Harbor Laboratory. “This [work] lays the foundation for testing that.”

Outside of AI applications, the new paper also adds to a growing consensus on the strong computational power of dendritic trees and, by proxy, single neurons. Back in 2003, a trio of neuroscientists showed that the dendritic trees of a pyramidal neuron perform complex computations by modeling it as a two-layer artificial neural network. In the new paper, the authors investigated which features of the pyramidal neuron inspired the much greater complexity in their five-to-eight-layer deep neural networks. They concluded that it came from the dendritic trees, and from a specific receptor that receives chemical messengers on the surface of the dendrites — findings that were in line with previous work in the field.

Some believe the result means that neuroscientists should make the study of single neurons a bigger priority. “This paper makes thinking about dendrites and individual neurons much more important than it was before,” said Konrad Kording, a computational neuroscientist at the University of Pennsylvania. Others, like Lillicrap and Zador, suggested that focusing on neurons within a circuit will be just as important for learning how the brain actually puts the computational complexity of single neurons to use.

Regardless, the language of artificial neural networks may provide new insight into the power of neurons and, ultimately, the brain. “Thinking in terms of layers and depths and widths gives us an intuitive sense of computational complexity,” said Grace Lindsay, a computational neuroscientist at University College London. Yet Lindsay also cautions that the new work is still only comparing a model to a model. Unfortunately, it’s currently impossible for neuroscientists to record the full input-output function of a real neuron, so there’s likely more going on that the model of a biological neuron isn’t capturing. In other words, real neurons might be even more complex.

“We’re not sure that between five and eight is really the final number,” said London.
En cualquier caso, y aunque el experimento puede servir para abrir nuevos caminos de investigación, los expertos en IA no tienen nada claro que para lograr simular el cerebro haga falta simular el funcionamiento de las neuronas de la misma forma en que un avión, para volar, no tiene que mover las alas como hacen los pájaros o los insectos.

Saludos.
Título: Re:STEM
Publicado por: pollo en Septiembre 08, 2021, 00:47:47 am
Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.
A raíz de esto (sobre el que hecho de que el cerebro y su funcionamiento siguen siendo grandes desconocidos para la ciencia), efectivamente, así es, y aunque se va avanzando poco a poco todavía queda mucho camino por recorrer.

Hace cinco días apareció este artículo en QuantaMagazine que me pareció muy interesante porque un grupo de científicos, queriendo arrojar algo más de luz sobre el tema, se ha preguntado cual sería el tamaño de una red neuronal que fuese capaz de "imitar" a una simple neurona.

Para el experimento hicieron una simulación "tradicional" de una neurona (eligieron una neurona de tipo piramidal del cortex de una rata) y luego trataron de crear una red neuronal lo más simple posible que fuera capaz de "imitar" a la neurona simulada.

Sin ánimo de hacer spoilers, les sorprendió comprobar que hacía falta una red neuronal bastante más compleja de lo que pensaban para que la red neuronal pudiera replicar con precisión el funcionamiento de la neurona simulada. Su conclusión es que, para imitar a una neurona "real", hace falta una red neuronal de unas 1000 "neuronas".

Citar
How Computationally Complex Is a Single Neuron? ([url]https://www.quantamagazine.org/how-computationally-complex-is-a-single-neuron-20210902/[/url])
Computational neuroscientists taught an artificial neural network to imitate a biological neuron. The result offers a new way to think about the complexity of single brain cells.

En cualquier caso, y aunque el experimento puede servir para abrir nuevos caminos de investigación, los expertos en IA no tienen nada claro que para lograr simular el cerebro haga falta simular el funcionamiento de las neuronas de la misma forma en que un avión, para volar, no tiene que mover las alas como hacen los pájaros o los insectos.

Saludos.

Eso es cierto, y no hace falta ser experto para concluir que nada obliga a ello (por todo lo que sabemos o ignoramos, podría haber infinitas formas de crear sistemas inteligentes).

Sin embargo, para poder simular un cerebro, o hacer algo que tenga una capacidad parecida, o algo al menos análogo, es necesario primero entender cómo funciona, o como mínimo por qué funciona, aunque sea muy por encima, pero ni siquiera tenemos eso. Sabemos que hay una maraña de células enviándose de forma semicoordinada impulsos, y que la frecuencia, intensidad y cadencia de estos tiene algún tipo de relevancia para el proceso, pero no sabemos por qué, ni de qué forma, ni qué relación hay entre ninguno de esos elementos. A todo esto además, se añade la complejidad extra de las interacciones químicas de sustancias que pueda haber en el cerebro (propias o extrañas). Ni siquiera sabemos por qué el cerebro reacciona como reacciona bajo la influencia de drogas, más allá de que "alteran el funcionamiento" o "bloquean determinados receptores".

La propia naturaleza del cerebro lo hace extremadamente complicado por un mero tema práctico. Aunque queramos estudiar el cerebro de, por ejemplo, una cucaracha, tenemos el problema obvio de la miniaturización. No podemos operar, ni medir, ni modificar con la precisión necesaria. Y encima es extremadamente delicado, con lo que cualquier descuido destruye lo que se quiere investigar. Por eso, no se ha podido ir más allá que "ponemos estos electrodos aquí y pasa esto, más o menos".

Ahora mismo, mi sensación es que se están imitando aspectos muy abstractos de este funcionamiento, con limitaciones obvias, pero no se tiene ningún conocimiento fundamental ya no digo de las neuronas, sino de los bloques más grandes que se forman con ellas. Lo más que se pueden hacer son correlaciones estadísticas de brocha muy gorda (por ejemplo http://apologetics-notes.comereason.org/2014/03/can-neuroscientists-use-mri-imaging-to.html (http://apologetics-notes.comereason.org/2014/03/can-neuroscientists-use-mri-imaging-to.html) ), que no deja de ser muy interesante, pero está muy lejos de que se entienda nada más allá de elucubraciones tremendamente imprecisas.

Uno de los avances reales sería comprender, aunque fuera a un nivel básico, cómo se codifican los recuerdos en la mente, ya que una las pocas conjeturas que tienen los neurocientíficos, es que el proceso cognitivo y la memoria son resultado de la propia actividad (no hay una memoria similar a la de un ordenador, para entendernos, que tenga datos concretos codificados de formas normalizadas en lugares específicos, sino que la memoria está en la propia interacción contínua y siempre cambiante entre las neuronas), y parece ser que los recuerdos y experiencias en una mente se interrelacionan todos con todos de alguna forma que no se alcanza a comprender.

También ayudaría por ejemplo comprender el porqué de otros aspectos aparentemente sin explicación, como puede ser la necesidad de dormir (donde además la actividad cerebral no sólo no para sino que aumenta), que es común a todos los seres vivos con cerebro. Lo único que se sabe es que es imprescindible para que pueda funcionar, aunque sea en microdosis.
Título: Re:STEM
Publicado por: el malo en Septiembre 08, 2021, 10:56:12 am
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/ (https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/)
No es por joder, pero esto no es nada nuevo, ni como invento ni como concepto. Será nuevo para el que redactó el artículo. La novedad real aquí es el tamaño. Está teorizado que este tipo de componentes pueden abrir nuevos tipos de lógica de procesamiento, pero de ahí al salto cósmico que hace el artículo (habemus cerebro electrónico) hay como varios miles de toneladas de sensacionalismo y saltos de fe.

Una de las principales causas de que no haya una IA que realmente pueda llamarse así es que no hay un modelo teórico, ni siquiera uno aproximado o muy de brocha gorda de cómo funciona en realidad un cerebro. Nadie sabe cómo localizar un recuerdo concreto en un cerebro, porque no se sabe de qué forma se guarda esta información, ni tampoco cómo se procesan las cosas ni por qué surge la conciencia.

Ya pueden echarle toda la fuerza bruta al problema (en forma de gigacomputadoras que "entrenan" redes cada vez más gordas) que quieran, es un problema de calidad y no de cantidad. El paradigma actual de "IA" da para lo que da, y las aplicaciones son las que son, muy específicas, que es lo que se puede conseguir con los paradigmas creados en los años 60/70 (siguen siendo esos) pero con la potencia de hoy día. No ha habido nuevos paradigmas fundamentales desde entonces, sólo pequeñas evoluciones.

Un niño sigue siendo capaz de reconocer un gato con ver dos o tres ejemplos, a la vez que aprende lo que es un árbol y lo que son tropecientasmil cosas más, mientras que los programas actuales necesitan como mínimo decenas de miles de ejemplos correctamente clasificados para reconocer (y con sesgos si los ejemplos no están perfectamente seleccionados) una única clase de cosas y que son engañables de formas triviales. Cambiar, transferir o generalizar estos entrenamientos requieren papers enteros y cantidades enormes de preproceso. Obviamente algo fundamental se nos escapa.

El ejemplo de los coches autónomos es muy significativo. El 85% fácil del problema (por decir algo) ya se ha resuelto, pero el 15% restante es el que impide que se pueda aplicar como nos han vendido: las situaciones no previsibles. Se está empezando la casa por el tejado. Si no conoces cómo funciona el mundo, no puedes esperar interactuar de formas complejas con él. Se están intentando emular procesos cognitivos resultado de una interacción completa con el mundo durante años.
El símil que mejor se me ocurre es esperar que alguien juegue al basket como Jordan sólo a base de mirar muchísimos vídeos de cómo lo hace. Eso no funciona así. Quizá valga para el ajedrez y otros problemas con información perfecta, reglas determinísticas y acotados, pero no para el mundo físico, que no tiene ninguna de esas tres cosas.

El tener nuevos componentes que permitan nuevos paradigmas de computación no implica que tengamos idea de cómo son esos nuevos paradigmas, que es el principal problema que queda por resolver, y del que no hay ningún paso dado aún, porque no se sabe cuál es el primer paso.

Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.

Qué pereza. El mundo de "la tecnología" se ha vuelto postureo puro.

De acuerdo al 100% con una matización. El poder computativo no va a conserguir IA "de verdad", pero puede conseguir cosas "que se le parezcan" a base de simular millones de escenarios.

Yo creo que el coche autónomo llegará a ser una realidad aunque no sepa qué hacer en caso de riada o de que un avión aterrice delante nuestro en la autopista porque un humano corriente tampoco sabría qué hacer porque nunca se ha enfrentado a esas situaciones en su vida. En el momento en que las muertes por accidentes de coches autónomos sean sustancialmente menores que las de hoy dia (en las mismas condiciones de tráfico, climatología, carreteras, etc.), se hará un balance coste/beneficio y se implantará.

"Los beneficios superarán a los riesgos". ¿Les suena?
No estoy de acuerdo en los ejemplos.

Las situaciones no previstas no son cosas extremadamente raras. Las situaciones no previstas son las infinitas posibilidades de cosas rutinarias no previstas que pueden ocurrir, y que no puedes simular porque es básicamente un problema intratable (¿cómo simulas o entrenas en un modelo lo que no es predecible ni repetitivo?)

Pongo algunos ejemplos:
- interpretar las señas de un agente de la autoridad -> ¿qué son esas señas? ¿cómo interpretas los matices en ellas, que dependen de cada persona? ¿cómo deshaces la ambigüedad en los gestos? ¿cómo interpreta un programa, que te dicen que pares, que vayas rápido, despacio, etc., cuando ni siquiera hay una forma universal de hacer estas señas?

- interpretar qué es un agente de la autoridad -> ¿llevan uniforme? ¿siempre? ¿qué uniforme? ¿qué pasa si es uno de otro país? ¿qué pasa si es un disfraz (que un humano reconocería inmediatamente)? ¿qué pasa si es alguien con gorra? ¿qué pasa si es alguien con un uniforme parecido?

- ¿y en caso de emergencias? ¿cómo dejo paso al ambulancia? ¿mi programa es capaz de saltarse las normas temporalmente, haciendo "lo que más convenga" en cada caso (cómo se define eso siquiera)?

- ¿qué pasa si hay un cartel con indicaciones? ¿cómo puede el programa reconocer lo que dice el cartel, ponerlo en contexto, decidir si es relevante o no y tomar una decisión en base a ello sin dejar de seguir el resto de reglas (y entendiendo lo que pone)? A lo mejor el cartel pone "sólo laborables", con tres de las letras borradas y una con mierda encima. O pone "sólo vehículos autorizados".

- ¿cómo sabe el programa que ese papel de periódico rodando no es una piedra? ¿cómo sabe el programa que eso que está pintado ahí no es un humano sino el dibujo de un humano? ¿cómo sabe el programa que eso que parece una mancha es un bache o que eso que parece un bache es una mancha?

- ¿paro ante un animal o no? ¿qué tipo de animal? ¿y si es una vaca? ¿y si es un perro grande? ¿y si es una paloma? ¿o un gorrión?  ¿y si es una pata con pollitos detrás? ¿y si es un dibujo? ¿y si es una pelota? ¿y si es una pelota de tenis? ¿una de gomaespuma? ¿un rodamiento de acero? (todas son similares, todas tienen implicaciones diferentes para un vehículo)

- ¿eso de ahí es un vehículo muy blanco o es espacio libre? (esto fue causa de un accidente real de un Tesla) ¿esas líneas son parte de la carretera o son una polla pintada? ¿esas líneas que casi no se ven son de la carretera, o son las viejas que ya no valen? ¿ese reflejo que hace el sol en el asfalto más nuevo son marcas viales o no? ¿qué hago ante señales confusas o contradictorias de los sensores (por suciedad, sol, agua, etc.)?

- ¿como intepreto estas líneas y señales contradictorias en una carretera en obras, que se cruzan unas con otras? (la persona aquí no tiene problema ninguno porque entiende el contexto y la intención) ¿qué interpreto con una señal tapada con una bolsa de basura medio rota? ¿qué hago cuando hay errores en la propia señalización? ¿y cuando me ordenan ir en dirección aparentemente contraria porque se ha habilitado un carril del sentido opuesto de forma temporal? ¿y si sólo hay gravilla y conos para marcar el camino? ¿y si sólo hay cinta de obra marcando los límites?

Todo esto y mucho más puede pasar en cualquier momento en muchos sitios, y ya no digamos en ciudad, donde ni he entrado. Interpretar todo esto requiere una única habilidad: saber interpretar la realidad. Los modelos actuales sólo saben interpretar muestras muy concretas de la realidad y reaccionar ante casos concretos de la misma previsibles y comunes en el tráfico.

Se habla de la supuesta fiabilidad de los ordenadores a la hora de conducir, pero hay una trampa conceptual que se obvia: sumar 2 + 2 es algo que un ordenador puede hacer en nanosegundos.

Que un niño de 5 años pueda sumar 2 + 2 en un cuaderno implica una complejidad mucho mayor: el niño no tiene circuitos especializados para sumar.

Sin embargo entiende lo que se le está pidiendo con un lenguaje muy complejo y lleno de ambigüedades, sabe lo que es un número, sabe agarrar un lápiz (imitar una mano humana de forma general es hoy por hoy imposible), sabe usarlo para hacer trazos en un papel que tienen un significado y que puede interpretar o reinterpretar y además puede recibir realimentación para saber si lo que está haciendo es correcto o no, y reflexionar sobre lo que está haciendo, poniéndolo en contexto con todo lo que ya sabe.

¿Quién es más "potente"?

¿Es "mejor" un pez que un humano porque nada más rápido y respira bajo el agua, al contrario que el humano que se ahoga? ¿No será más bien que la pregunta está mal planteada?

Para conducir, estamos diciendo la falacia de que los humanos son muy poco fiables, cuando yo diría que es exactamente lo contrario. Si no fuesen tan fiables, y dada la complejidad cognitiva de la tarea y la cantidad tan inmensa de Km diarios que se hacen en el mundo, tendríamos miles de millones de accidentes todos los días. Es obvio que los seres humanos tienen puntos débiles (falta de disciplina, cansancio, incompetencia, pasar de las normas, distracciones, etc.), pero de momento son mucho más versátiles que lo que haga un programa y desde luego, un humano no decide a propósito estamparse contra algo que de repente le pareció un hueco en la carretera, en cualquier momento aleatorio, o frenar en seco porque pasó rodando un periódico en frente del coche y el programa lo interpretó como una piedra grande en medio de la carretera.

De momento no podremos saber si esas situaciones que comento son un punto débil de los coches autónomos de ahora mismo, porque no van a ponerlos a prueba en condiciones no controladas ni de broma (saben que van a fallar). De momento están en determinadas ciudades con determinadas características (sobre todo suburbios yankees), porque es donde tienen un entorno más predecible y donde no se arriesgan y la solución válida a todo es "para", porque no hay más decisiones que tomar.

Yo no tengo la demostración de que un coche autónomo pueda lidiar con situaciones que para una persona fuesen triviales. Si fuera así, ya estarían requeteimplantados, y en todo tipo de climas, ciudades, etc. No puedes entrenar ni simular lo que es impredecible por definición. Si se quiere hacer lo que nos están vendiendo, hace falta otro enfoque.

No había pensado en lo de los agentes. Si a mí a veces me cuesta descifrar lo que dicen, imagino que el ordenador se volvería loco. Aún así se me ocurrren varias soluciones al problema.

Todo lo demás que usted comenta se soluciona a base de fuerza bruta o de pequeños cambios.

Por ejemplo, como distinguir un bache de una mancha o un periódico de una piedra, eso se hace a base de cámaras y sensores. Sensores que midan la profundidad, temperatura y densidad de un objeto.

En el tema animales, un coche bien "entrenado" podría ser más eficiente que un humano porque el coche ni se asusta ni se compadece. Un humano pegará un volantazo para salvar a un perro. Un ordenador calculará si se puede dar ese volantazo con seguridad y si no se puede, frenará y seguirá recto aunque se lleve al perro por delante.

El tema de las obras es algo que puede solucionar plantando balizas al lado de la pintura amarilla. Cuando se termine la obra, se deja la carretera como estaba (sólo con líneas blancas) y se retiran las balizas. Eso "obligará" a los encargados de las obras a hacer las cosas bien y no a poner 3 conos mal puestos que a veces si se sabe lo que indican.

Con los agentes imagino que se podría hacer algo parecido. Tendrían un dispositivo con ellos  que los coches serían capaces de interpretar. Hace poco me compré un casco de realidad virtual que me llamó mucho la atención y es increíble como interpreta el movimiento de las manos con un par de cámaras y sensores que lleva a los lados. La tecnología ya está.

Todavía queda mucho para llegar hasta un nivel 5, pero incluso con nivel "4+" con asistencia humana en momentos puntuales ya has conseguido conducción que parezca autónoma. Tesla (por poner un ejemplo), puede tener un sistema de pago por suscripción y usar ese dinero para tener a 100 personas en una sala preparados para tomar los mandos de cualquier vehículo a distancia (como hacía Google Translator al principio.. parecía automático pero eran humanos revisando las traducciones).



Título: Re:STEM
Publicado por: wanderer en Septiembre 08, 2021, 11:27:26 am
Sólo quería señalar que aparte de todo lo que ha señalado Pollo, está el tema de consumo de energía. Un supercomputador que trate de imitar malamente con toda una serie de redes neuronales cierto aspecto del funcionamiento del sistema nervioso de un organismo vivo, consume energía de forma desaforada, mientras que el cerebro de tal organismo se apaña mucho mejor con una ínfima fracción de la energía consumida por el supercomputador.

Es obvio que tenemos todas las capacidades de una máquina universal de Turing (sobre las cuales está basada la arquitectura de cualquier computador moderno), pues para empezar fuimos capaces de concebirlas teóricamente e implementarlas en diseños prácticos, pero también es igualmente obvio que no estamos limitados por las limitaciones intrínsecas que tienen; de la conciencia, ya ni hablo, pero todo indica que es una propiedad no-modelizable y emergente (y que no ha de estar limitada al hombre, sino también a bastantes animales superiores).
Título: Re:STEM
Publicado por: pollo en Septiembre 08, 2021, 13:03:35 pm
No había pensado en lo de los agentes. Si a mí a veces me cuesta descifrar lo que dicen, imagino que el ordenador se volvería loco. Aún así se me ocurrren varias soluciones al problema.
No se volverá loco, lo que hará será tomar una decisión equivocada en el peor momento posible, potencialmente mortal o como mínimo problemas legales.
Citar
Todo lo demás que usted comenta se soluciona a base de fuerza bruta o de pequeños cambios.
Es ahí donde está el engaño.
Dime una forma de entrenar a fuerza bruta estas situaciones que he comentado. Para que algo se pueda entrenar con fuerza bruta (con los métodos actuales), tiene que repetirse decenas de miles de veces. ¿Cómo se entrena con fuerza bruta algo que por definición no se sabe cómo va a ser?
Si se hace sin fuerza bruta hay que codificarlo. Y bueno, podemos tener codificados todos los infinitos e impredecibles casos que se podrían producir.
Por eso deepmind puede jugar bien al ajedrez, al go, al Tetris o al poker, o al Space Invaders pero no a juegos que tengan objetivos a largo plazo de niveles mayores de abstracción: no se pueden resolver ni por fuerza bruta (minimax clásico) ni por heurística (redes neuronales). Hay que entender varios niveles de abstracción y comprender el porqué de lo que se está haciendo.
Es más, si uno ve cómo es ese desarrollo por fuerza bruta, es llamativa la cantidad tan brutal (valga la redundancia) de fuerza bruta necesaria. Un humano aprende a ser un gran maestro del ajedrez con muchos órdenes de magnitud menos (me lo invento) de partidas que uno de estos sistemas. Vamos, un humano jugará como mucho unos miles de partidas en su vida. Un sistema especializado exclusivamente en ajedrez como los que ha creado Google necesita cientos de miles de millones.
Está claro que no se aprende de la misma forma.
Citar
Por ejemplo, como distinguir un bache de una mancha o un periódico de una piedra, eso se hace a base de cámaras y sensores. Sensores que midan la profundidad, temperatura y densidad de un objeto.
No es cierto, porque depende totalmente del proceso que se haga con la información de esos sensores y de lo que sean capaces de medir esos sensores.
Los sensores no tienen precisión arbitraria. Tienen una concreta. Dependiendo de eso podrían ser o no ser capaces de medir este tipo de cosas. Una persona, por su sentido común (experiencia en el mundo físico) es capaz de deducir muchas más cosas sobre las consecuencias de lo que percibe (en principio mayoritariamente visual).

Precisamente ahí está la cuestión. Ni siquiera todos los coches autónomos emplean los mismos sensores para obtener la información. El LIDAR es ciego ante ciertos tipos de objetos. ¿Puede un sensor medir la profundidad de un objeto que no se ve? Un bache no es un objeto, es una irregularidad en el terreno. Dependiendo de cómo sea su forma, o las circunstancias, el sensor puede estar en una posición o circunstancias en la que no tenga la capacidad de detectar la profundidad del bache porque tal información esté oculta, mientras que una persona podría ver de lejos que determinada ausencia de información podría ser extremadamente peligrosa para el vehículo. Un ejemplo que se me viene a la cabeza es un bache lleno de agua turbia.

No es sólo una cuestión de detección, sino de interpretación de las posibles consecuencias. Y ahí el programa no tiene nada que hacer porque es un autómata que va a ciegas. Cualquier situación en la que los sensores no puedan detectar (de forma positiva) una información puede ser un desastre, y lo mismo cuando el programa es incapaz de predecir consecuencias de una situación obvia peligrosa para la que el programa no esté preparado.

¿Un derrame de aceite de motor es detectable por los sensores? ¿O por las cámaras? No digo sólo verlo. Digo interpretarlo y entender lo que implica.
Citar
En el tema animales, un coche bien "entrenado" podría ser más eficiente que un humano porque el coche ni se asusta ni se compadece. Un humano pegará un volantazo para salvar a un perro. Un ordenador calculará si se puede dar ese volantazo con seguridad y si no se puede, frenará y seguirá recto aunque se lleve al perro por delante.
No estás resolviendo ningún problema, sino dándolo por resuelto por falacia de abstracción (el ordenador "calculará" -> esto es falso, porque no hay criterios definidos para calcular).
Primero, el volantazo no es el problema. El humano puede decidir, aunque sea por reflejos, si merece la pena o no darlo. El programa no tiene ni idea de qué tiene delante, las consecuencias de ello, ni de si es peligroso o no, salvo quizá basándose en criterios muy simplones (tamaño aparente por ejemplo, que no es un mal criterio para el que está dentro del coche).
La cosa es que una persona normalmente pararía para dejar pasar al pato con pollitos. Si tu coche tira adelante, no está resolviendo nada, está ignorando el problema. Si tu coche no tira adelante, tiene un problema: cada pequeño animal que se ponga delante te podría frenar. Un gorrión o una paloma no es necesario frenar porque salen volando por sí solos. Un erizo, un gato o un perro no necesariamente. Pero todo esto el programa lo desconoce, con lo que no puede interactuar con ello de forma predecible.
Citar

El tema de las obras es algo que puede solucionar plantando balizas al lado de la pintura amarilla. Cuando se termine la obra, se deja la carretera como estaba (sólo con líneas blancas) y se retiran las balizas. Eso "obligará" a los encargados de las obras a hacer las cosas bien y no a poner 3 conos mal puestos que a veces si se sabe lo que indican.
De nuevo esta es una forma de no resolver el problema, sino de ignorarlo totalmente. Y el coche debe adaptarse a la realidad, no la realidad al coche. En el momento en el que pase cualquier imprevisto, el coche autónomo no sabría qué hacer, o peor, haría algo desastroso sin despeinarse.
Citar

Con los agentes imagino que se podría hacer algo parecido. Tendrían un dispositivo con ellos  que los coches serían capaces de interpretar. Hace poco me compré un casco de realidad virtual que me llamó mucho la atención y es increíble como interpreta el movimiento de las manos con un par de cámaras y sensores que lleva a los lados. La tecnología ya está.
O sea, que un agente sin dispositivo no es un agente. Pues puede haber mil razones por las cuales ese agente no tenga por qué tener ese dispositivo encima en ese momento, y encima se le da al agente la responsabilidad de lo que haga un vehículo.
¿Y si es un peón señalista? ¿O alguien trolleando que ha clonado uno?
Tampoco queda claro cómo funcionaría este dispositivo y cómo debería de usarse para indicar a determinados coches que hagan o no una de muchas cosas que el agente podría solicitar.

En el casco de realidad virtual tienes unos sensores de baja precisión (porque no hace falta más) con consecuencias nulas en caso de error, y en el que además se detecta la posición respecto a un punto estático y conocido de antemano. Este problema en cambio es crítico y es el resto del mundo el que no para de moverse presentando escenarios desconocidos. La tecnología de sensores lleva estando décadas.

El problema no son los sensores. Es el programa que los interpreta, del que se espera la inteligencia y sentido común de una persona (y es aquí donde los legos no entienden lo que implica, y creen que es un problema resuelto). Y yo digo que sin sentido común no se puede poner una máquina en una carretera fuera de determinados casos porque los accidentes serán cuestión de tiempo, concretamente del tiempo en el que haya una situación no prevista por el programa.
Citar

Todavía queda mucho para llegar hasta un nivel 5, pero incluso con nivel "4+" con asistencia humana en momentos puntuales ya has conseguido conducción que parezca autónoma. Tesla (por poner un ejemplo), puede tener un sistema de pago por suscripción y usar ese dinero para tener a 100 personas en una sala preparados para tomar los mandos de cualquier vehículo a distancia (como hacía Google Translator al principio.. parecía automático pero eran humanos revisando las traducciones).
Lo que demuestra la práctica es que la conducción autónoma mediocre con un humano que tenga que responder puntualmente es básicamente un humano durmiendo y poco alerta, al que se le pide que de pronto tome el control. Muy buena receta para el desastre (de hecho ya ha pasado varias veces con los Tesla por su publicidad engañosa y usuarios poco críticos).

Sobre lo de tomar el control remotamente, es una "solución" (realmente es reconocer que no la hay) válida, pero ¿y si falla la conexión? ¿Hay garantía de una conexión 100% fiable el 100% del tiempo para poder ofrecer esto? Que estamos hablando de controlar en una situación crítica y en tiempo real un vehículo, que a lo mejor está a tomar por culo perdido por ahí con una cobertura de mierda o con un tiempo de perros. Cualquier mierda acaba con la vida de alguien. Además que la solución obvia sería que el usuario tomase el control.

Por no decir el peligro de otros tipos que representa esto (hackeos, o la situación distópica que puede representar que el Gobierno, o una empresa, controlen o bloqueen un vehículo en contra de tu voluntad sin recurso e inmediatamente).

Lo de Google Translator debería dar una idea de la cantidad de humo y burbuja que hay en este tema.

Se le atribuyen propiedades cuasi milagrosas a estas técnicas, equiparando la capacidad de sumar con rapidez y precisión que tiene un procesador, con un problema de una naturaleza totalmente diferente y con una complejidad enorme (por la cantidad de casos posibles). No sirve con que funcione bien el 95% del tiempo, eso es una puta mierda si te juegas la vida.

Pese a lo que se diga, los humanos no conducirán mejor, pero no toman decisiones absurdas en situaciones triviales. Yo no confiaría ni de puta coña mi vida a un programa hecho con estas técnicas, ni a una de estas empresas, porque desde el principio se está vendiendo moto a unos niveles sonrojantes, y ya se ha demostrado lo que les importan sus usuarios, siendo Tesla el ejemplo más claro, vendiendo como conducción autónoma algo que claramente no lo es y que por ello ya ha provocado muertes.

P.D. Yo seré el primero en reconocer que se ha conseguido lo que nos venden, pero si y sólo si consiguen lo que han prometido. Y de momento, no están ni cerca. Sí reconozco que han resuelto una parte importante del problema, la fácil que se puede conseguir con trucos ingeniosos. La parte que queda es la jodida. Se va a tardar mucho en conseguir esa.
Mi previsión es que salvo que haya un nuevo paradigma, la conducción autónoma se va a quedar relegada a autopistas (y con riesgos) y a suburbios de regiones con buen tiempo. Si algún día se masifica, veremos también accidentes, lo único que serán menos frecuentes pero con consecuencias mucho peores y por motivos diferentes. Esa visión de que "las máquinas no se pueden equivocar" es no entender el problema. La máquina nunca se equivoca. El programa efectivamente se ejecuta al pie de la letra. Otra cuestión es si el programa está bien hecho o no.
Título: Re:STEM
Publicado por: el malo en Septiembre 08, 2021, 14:48:43 pm
Pollo respondo en un nuevo post para no seguir incrementando el número de quotes.

Muchos de esos casos que usted pone ya podrían darse hoy. Dice que qué pasaría si alguien coloca mal una baliza (intencionadamente o no), pues lo mismo que si pinta mal una raya amarilla o se deja un cono en medio de la carretera. Si hay espacio suficiente no pasará nada, pero si está detrás de un cambio de rasante sin visibilidad, pues te comes el cono. 

El tema de la de conectividad, seguro que no haría el mismo razonamiento a la hora de comprarse un móvil. ¿Para qué gastarse cientos de euros en un aparato si el día que vaya a la montaña y tenga un accidente no puedo usarlo para llamar a emergencias porque no hay cobertura?
No podremos tener conducción semi autónoma en la carretera que une el Pozo de la Serna con Alcubillas, pero sí la tendremos en las vías principales y secundarias de la red viaria que es por donde pasa más del 80% del tráfico.
Habría tramos señalizados donde la conducción autónoma con asistencia sea posible y otros en los que no. Igual los coches de Tráfico podrían equiparse con repetidores 5G para que un humano tome los mandos de los coches en caso de que haya una intervención en un lugar con baja conectividad.

Si se quiere y es rentable, se puede hacer. Hace 30 años era totalmente impensable que yo pudiera hacer una foto del chuletón que me voy a comer y enviársela a usted con las coordenadas exactas del restaurante para que su pantalla le diga exactamente cómo llegar. En comparación con eso, el reto tecnológico de tener una conducción autónoma asistida es menor.

El resto, es cuestión de ir aprendiendo. Frenar cuando hay patitos y no hay peligro de que me embistan por detrás, no frenar cuando hay una paloma porque el 99% de las veces sale volando. Si el sistema está lo suficientemente implantado, los propios coches mandarían señales al resto de los coches de la vía avisando de un firme deslizante en cierto punto o de un obstáculo.

El hackeo ya es un problema hoy día. Si un empleado de Tesla puede hacer que su coche se pare en medio de la autopista, también puede hacerlo un hacker.

Entiendo los problemas que usted plantea y estoy de acuerdo con ellos, pero cosas más difíciles se han hecho. No es IA, pero se le parece lo suficiente como para hacer la tarea.
Título: Re:STEM
Publicado por: Derby en Septiembre 12, 2021, 19:14:19 pm
Human augmentation= the application of science and technologies to temporarily or permanently improve human performance

https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/986301/Human_Augmentation_SIP_access2.pdf
Título: Re:STEM
Publicado por: wanderer en Septiembre 13, 2021, 12:51:02 pm
Ya había aparecido esto en éste hilo, pero creo que merece la pena traerlo:

Citar

UNA OBRA DE INGENIERíA ÚNICA
Esta desconocida máquina decidirá la guerra de los microchips (y China no puede copiarla)
Para fabricar algo tan diminuto como el procesador de un iPhone, se necesita un 'robot' de 180 toneladas. Y los únicos que pueden fabricarlos son unos holandeses que se han destapado como un actor crítico en la industria

https://www.elconfidencial.com/tecnologia/2021-09-12/asml-cotizacion-maquinas-industria-microchips_3284662/ (https://www.elconfidencial.com/tecnologia/2021-09-12/asml-cotizacion-maquinas-industria-microchips_3284662/)
Título: Re:STEM
Publicado por: pollo en Septiembre 13, 2021, 13:25:42 pm
Si se quiere y es rentable, se puede hacer. Hace 30 años era totalmente impensable que yo pudiera hacer una foto del chuletón que me voy a comer y enviársela a usted con las coordenadas exactas del restaurante para que su pantalla le diga exactamente cómo llegar. En comparación con eso, el reto tecnológico de tener una conducción autónoma asistida es menor.
Ahí es donde reside el error fundamental que tienen muchos legos en la materia. Equiparar dos cosas que no tienen equiparación, por desconocer los fundamentos.

En comparación con eso ue mencionas, el tener una conducción autónoma es muchísimo más complejo, porque la dificultad de una cosa y otra se parecen como un huevo a una pirámide.
De hecho la comparación de huevo y pirámide, sin querer, me parece que viene al caso. Hacer una pirámide es jodido, requiere una cantidad ingente de trabajo, planificación, arquitectura, etc. Pero sabe cómo hacerse (no deja de ser un edificio con peculiaridades). Sin embargo, un humilde huevo, no podemos crear un equivalente desde cero, porque nos faltan fundamentos para ello (podríamos crear quizá la cáscara, la yema y la clara, lo más fácil, pero la maquinaria celular no se puede crear sintéticamente con lo que es posible hoy día, por una cuestión de complejidad, miniaturización e ignorancia.

Son cosas que cualquiera que tenga conocimientos de cómo funciona por dentro (como es mi caso) sabe. Y esto sin ser un experto. De hecho lo que dicen los expertos sobre IA (que son mucho más prudentes, lógicamente, porque saben los límites) no tiene nada que ver con lo que dicen los vendehumos y futuristas, que hablan de oídas o por interés comercial.

Hace 30 años existían todas las tecnologías necesarias para hacer realidad lo que mencionas ahí.
- La fotografía existía, y la digital también, aunque no era mayoritaria.
- La geolocalización existía, y ya había satélites que lo hacían
- Internet también existía, pero no era algo popularizado (de hecho es un invento bastante anterior).
- Las pantallas también existían, incluyendo táctiles, pero eran poco comunes.
- Las bases de datos también existían. Desde hacía mucho.

Lo que no había era el perfeccionamiento, infraestructura, producción y mercado para ello. Pero se podía tener una idea totalmente clara de qué se necesitaba para llegar ahí sin inventar nada fundamentalmente nuevo, sólo perfeccionamiento de lo ya existente.
El proceso evolutivo de la tecnología actual es el resultado de esa visión. No hubo ningún invento tecnológicamente revolucionario por el medio, sino que todo fueron evoluciones de lo ya existente.

Esto otro no tiene un itinerario claro, por los motivos ya expuestos. Por eso está la situación como está desde hace 5 años y todas estas compañías han bajado mucho el nivel de bombo que se daban: se ha conseguido resolver todo lo que se podía con lo que se sabía. Para el resto de lo que se prometió (poder "invocar" un vehículo desde el otro lado del país y que llegue a donde sea que uno esté, sin importar nada más) no hay solución con lo que se conoce y las técnicas que se aplican, que insisto, está ya inventado desde los 60/70 pero no había máquinas capaces de ponerlo en práctica.

Este mismo error fundamental lo he visto muchas veces en cosas totalmente dispares. El más típico es hacer comentarios en la línea de: "si los ordenadores son mil millones de veces más potentes que hace 20 años, ¿qué impide que pase lo mismo con la capacidad de carga de los cohetes espaciales?". Pues resulta que son dos problemas que no tienen nada que ver el uno con el otro y entendiendo los fundamentos de uno y otro se comprende perfectamente por qué uno lleva progresando de la forma que lleva progresando y lo otro no. Y no tiene que ver con falta de inversión.

De la misma forma, es predecible que en 20 años, perfeccionando yo que sé, la realidad virtual, tengamos un nuevo tipo de cine/juego 3D en el que todo el público esté interactuando dentro de una sala enorme con la historia ocurriendo alrededor y entre los participantes (no hace falta nada fundamentalmente nuevo, sólo perfeccionar lo que ya existe) o por ejemplo los espectáculos de luces con drones en lugar de fuegos artificiales (lo que ya había, combinado con más cosas que ya había), pero tengo bastante claro que es muy improbable que alguien invente una máquina del tiempo o el viaje superlumínico, porque no hay fundamentos para ello.
Título: Re:STEM
Publicado por: Saturio en Septiembre 14, 2021, 00:41:06 am
En mayo de 2019, Musk anunció su flota de robotaxis. En abril de 2020 llegó a decir en un tuit que funcionalmente podría estar resuelto ese año pero que el problema era regulatorio.

El sistema de conducción inteligente de Tesla ha avanzado bastante en los últimos años. Por lo que he visto es capaz de conducir por carretera y por los suburbios tipo americano sin demasiados problemas. Eso sí, es muy, muy prudente. En los tramos con algo de curvas va despacito. Evidentemente, te puedes olvidar de que adelante a un vehículo lento (tractor, cosechadora, furgo del Juande, transporte especial...). las intersecciones (incorporaciones) no reguladas por semáforo las lleva mal. Las intersecciones de salida las hace bien si están bien pintadas. Es capaz de identificar los bumpers y pasarlos (para mi gusto demasiado rápido). Puede hacer rotondas con poco tráfico (es muy prudente, en una rotonda con tráfico se quedaría empanado).
En un entorno urbano, sencillamente es inútil.
El Smart Summon que sería algo parecido a un entorno urbano funciona como un conductor borracho (uno de esos conductores borrachos que saben que están borrachos). La marca restringe su uso a 60 metros en aparcamientos (En Europa a 6 metros) y manteniéndolo siempre a la vista y listo para actuar y detenerlo. El estrés que produce su uso no compensa sus posibles ventajas.

Los robotaxis están lejísimos. Por lo menos con el enfoque actual de un coche que conduce mediante sensores por unas vías "pasivas". Yo creo que es necesario que tanto las vías como los otros vehículos se comuniquen entre sí.
Título: Re:STEM
Publicado por: wanderer en Septiembre 18, 2021, 18:02:09 pm
¡Bienvenidos a la Máquina Moral!

Siéntese al volante y disfruten de entrenar moralmente a su vehículo autónomo favorito...  :rofl:

https://www.moralmachine.net/hl/es (https://www.moralmachine.net/hl/es)
Título: Re:STEM
Publicado por: el malo en Septiembre 20, 2021, 13:42:48 pm
¡Bienvenidos a la Máquina Moral!

Siéntese al volante y disfruten de entrenar moralmente a su vehículo autónomo favorito...  :rofl:

https://www.moralmachine.net/hl/es (https://www.moralmachine.net/hl/es)

Interesante. Para este simulador la vida de un perro o un gato cuentan igual que la de una mujer embarazada.

No digo nada de los ancianos y los médicos.. imagino que el coche con sus miles de sensores será capaz de detectar la edad del atropellado y su profesión.

¿No tiene ningún sensor para medir si estamos atropellando a un cabronazo o a una bellísima persona?  :facepalm:

edito: lo hay  :rofl: :rofl:

Se puede escoger entre atropellar a criminales o a perros.

Brutal el jueguecito wanderer



Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 20, 2021, 19:43:50 pm
Citar
China se dispone a ensayar un reactor nuclear basado en torio (https://www.investigacionyciencia.es/noticias/china-se-dispone-a-ensayar-un-reactor-nuclear-basado-en-torio-20280)
Si el reactor experimental de China es un éxito, podría llegar a comercializarse y a ayudar a que el país cumpla sus objetivos climáticos.

Smriti Mallapaty | 15 de septiembre de 2021

(https://i.imgur.com/vsXQDyx.jpg)
[tdChina tiene más de cincuenta reactores nucleares, pero el reactor experimental de sal fundida basado en torio de Wuwei será el primero de su especie
[Uno de los reactores de Taishan, la central que se ve en la foto, se cerró en julio para solucionar problemas de las barras de combustible.] [EDF Energy].]

A los científicos les apasiona un reactor nuclear experimental que usa torio y cuyos ensayos están a punto de empezar en China. Aunque este elemento radiactivo ya se probó antes en reactores, los expertos dicen que China va a ser la primera con posibilidades de que esta tecnología sea utilizable comercialmente.

Ese reactor es inusual: por su interior circula sal fundida en vez de agua. En principio, generaría energía nuclear de forma, en cierta medida, más segura y barata, y a la vez produciría una cantidad mucho menor de desechos radiactivos de vida muy larga que la creada en los reactores corrientes.

Estaba previsto que la construcción del reactor experimental de torio en Wuwei, en los aledaños del desierto de Gobi, concluyese a finales de agosto y que en este mes hubiese ya tandas de ensayos, según el Gobierno de la provincia de Gansu.

El torio es un metal débilmente radiactivo, plateado, que se encuentra de modo natural en rocas y no tiene hoy por hoy mucho uso industrial. Es un producto residual de la minería de tierras raras, pujante en China, y es, por lo tanto, una alternativa atractiva al uranio de importación, dicen los investigadores.

Gran potencial

«El torio abunda muchísimo más que el uranio y por eso sería una tecnología muy útil dentro de cincuenta o cien años», para cuando las reservas de uranio vayan agotándose, dice Lyndon Edwards, ingeniero nuclear de la Organización de Ciencia y Tecnología Nucleares, en Sydney. Pero como el desarrollo de una tecnología así llevará muchas décadas, tenemos que empezar ahora, añade.

China puso en marcha su proyecto de sales fundidas en 2011 con una inversión de 3000 millones de yuanes (unos 500 millones de dólares), según Ritsuo Yoshioka, expresidente del Foro Internacional de Sal Fundida y Torio, en Oiso, Japón, que ha colaborado estrechamente con investigadores chinos.

El operador del reactor de Wuwei es el Instituto de Shanghái de Física Aplicada. Está diseñado para que produzca solo 2 megawatios de energía térmica, que cubrirían el consumo de mil hogares. Pero si los experimentos salen bien, China espera construir un reactor de 373 megawatios para 2030, que daría energía a cientos de miles de hogares.

Estos reactores están entre las «tecnologías perfectas» que le servirían a China para conseguir su meta de unas emisiones nulas de carbono para más o menos 2050, dice el modelizador de energía Jiang Kejun, del Instituto de Investigación de la Energía de la Comisión Nacional de Desarrollo y Reformas, en Pekín.

El torio 232, isótopo presente en la naturaleza, no puede fisionarse, pero irradiado en un reactor absorbe neutrones y forma uranio 233, material fisible que genera calor.

El torio se ha probado como combustible en otros tipos de reactores nucleares en diversos países (Estados Unidos, Alemania, Reino Unido) y forma parte de un programa nuclear de la India. Pero hasta ahora no ha mostrado una relación favorable entre costes y beneficios porque su extracción es más cara que la del uranio y, al contrario que algunos isótopos presentes de forma natural de uranio, hay que convertirlo en un material fisible.

Algunos investigadores han apoyado el uso del torio como combustible porque, dicen, es menos probable que sus productos residuales se aprovechen para el armamento que los del uranio, pero otros sostienen que el riesgo sigue existiendo.

(https://i.imgur.com/6gF2Yfv.jpg)
Reactor de sales fundidas. En un reactor nuclear de sales fundidas, el material fisible se disuelve en sal líquida en el núcleo del reactor. La sal líquida sirve a la vez de refrigerante, en lugar del agua. La fisión ocurre en el núcleo del reactor y genera calor, que la sal refrigerante y los intercambiadores de calor transmiten al agua, con lo que se produce vapor. Este mueve una turbina para generar electricidad. Un tapón congelado de sal se funde si el núcleo del reactor se sobrecalienta, y así la mezcla de sal y combustible cae a unos tanques de vertido de emergencia.
[Fuente: Departamento de Energía / Agencia Internacional de la Energía Atómica].

Desde el pasado

Cuando China encienda su reactor experimental, será el primer reactor de sal fundida que funcione desde 1969; por entonces, unos investigadores estadounidenses del Laboratorio Nacional de Oak Ridge, en Tennessee, cerraron el suyo. Y será el primer reactor de sal fundida que se base en el torio. Los investigadores que colaboraron con el Instituto de Shanghái de Física Aplicada dicen que el diseño chino copia el de Oak Ridge, pero lo mejora gracias a décadas de innovaciones en las técnicas de fabricación, los materiales y la instrumentación.

Los investigadores que participan directamente en China en el proyecto no respondieron las peticiones de que confirmasen el diseño del reactor y la fecha exacta del comienzo de los ensayos.

En comparación con los reactores de agua ligera de las centrales ordinarias de energía nuclear, los reactores de sal fundida funcionan a temperaturas bastante mayores, lo que significa que podrían generar electricidad de forma mucho más eficiente, dice Charles Forsberg, ingeniero nuclear del Instituto de Tecnología de Massachusetts, en Cambridge.

El reactor chino usará sal basada en fluoruro, que se funde en un líquido transparente, incoloro, cuando se la calienta a unos 450 grados. La sal actúa como refrigerante para transportar el calor desde el núcleo del reactor. Además, en vez de barras de combustible sólido, los reactores de sal fundida usan también la sal líquida como sustrato donde el combustible, el torio por ejemplo, se disuelve directamente dentro del núcleo.

Se cree que los reactores de sal fundida son relativamente seguros; la razón es que el combustible ya está disuelto en líquido y funcionan a presiones inferiores que los reactores nucleares, y ello reduce el riesgo de que haya fusiones explosivas del núcleo del reactor.

Yoshioka dice que muchos países trabajan en reactores de sal fundida (sea para generar una electricidad más barata con uranio o para usar el plutonio residual de los reactores de agua ligera como combustible), pero solo China está intentado usar como combustible el torio.

Los reactores de la siguiente generación

El reactor de China será «un banco de pruebas donde podrá hacerse mucho para aprender», dice Forsberg, como analizar la corrosión o caracterizar la composición de los radionúclidos de la mezcla mientras circula.

«Vamos a aprender mucha ciencia nueva», afirma también Simon Middleburgh, científico de materiales de la Universidad de Bangor, en el Reino Unido. «Si me dejasen, me metía en el primer avión que vaya para allá».

Puede que pasen meses antes de que el reactor chino funcione por completo. «Si algo va mal mientras, no se podrá seguir, habrá que parar y empezar otra vez», dice Middleburgh. Por ejemplo, la bomba podría fallar, las tuberías podrían corroerse o podría haber un bloqueo. No obstante, los científicos tienen la esperanza de que todo acabe bien.

Los reactores de sal fundida son solo una de las muchas técnicas nucleares avanzadas en las que China está invirtiendo. En 2002, un foro intergubernamental señaló seis tecnologías prometedoras para los reactores que habría que abordar por la vía rápida para 2030, entre las que estaban los reactores refrigerados por líquidos de plomo o sodio. China tiene programas para todas ellas.

Algunos de esos tipos de reactor podrían sustituir a las centrales de carbón, dice David Fishan, director de proyecto de la consultora de energía del Grupo Lantau, en Hong Kong. «Mientras China navega hacia la neutralidad en carbono, podría ir quitando calderas [de las centrales térmicas] y sustituirlas con reactores nucleares».
Saludos.
Título: Re:STEM
Publicado por: pollo en Septiembre 21, 2021, 01:40:38 am
Citar
China se dispone a ensayar un reactor nuclear basado en torio (https://www.investigacionyciencia.es/noticias/china-se-dispone-a-ensayar-un-reactor-nuclear-basado-en-torio-20280)
Si el reactor experimental de China es un éxito, podría llegar a comercializarse y a ayudar a que el país cumpla sus objetivos climáticos.

Saludos.
Por lo que tengo entendido, los reactores de sales fundidas se abandonaron en su día por que daban muchos problemas de mantenimiento y según qué problemas podían paralizarlo durante días y hacían complicado y caro el reinicio de la maquinaria, además de que en caso de una fuga de refrigerante (en este caso sales) la cosa es mucho más jodida de manejar.

La India lleva experimentando con esto hace tiempo ya, aparentemente sin resultados aplicables, o eso dicen.

A ver qué consiguen.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 21, 2021, 21:12:24 pm
Alfredo García (@OperadorNuclear (https://twitter.com/OperadorNuclear)) ha publicado un hilo en que aporta información muy interesante sobre los reactores de torio y, en el que habla en concreto del TMSR-LF1, el reactor de torio anunciado hace unos días por China

(https://i.imgur.com/xsByz9Y.jpg)
https://twitter.com/OperadorNuclear/status/1440168036401434629

A continuación, el hilo "desenrrollado":

Citar
El REACTOR DE TORIO DE CHINA

Según los medios de comunicación, China va a revolucionar la energía nuclear poniendo en servicio el primer reactor de torio. En un HILO pondré el TMSR-LF1 en contexto y explicaré qué es un reactor de sales fundidas de torio.

(https://i.imgur.com/duYNaMB.jpg)

China es muy consciente de su creciente necesidad de energía y de su alta dependencia del carbón. El 66% de su energía primaria proviene del carbón, con más de 620 centrales térmicas. Por ello está realizando una apuesta por las energías renovables y la energía nuclear.

(https://i.imgur.com/BPYbVQH.jpg)

China se convertirá muy pronto en el líder mundial de reactores de agua ligera, con 51 reactores operables, 17 en construcción, 38 planeados y 168 propuestos. También hace años que está desarrollando reactores de torio para sus zonas más áridas del noroeste (en amarillo).

(https://i.imgur.com/34JUTxk.jpg)

Los reactores de sales fundidas (MSR) son uno de los 6 diseños de reactores de IV Generación en los que se está trabajando en todo el mundo. El primer reactor de IV Generación en servicio es el BN-800 ruso, un SFR refrigerado por sodio líquido.

(https://i.imgur.com/7pKFtF4.jpg)

Ventajas de los MSR:

  • Utilización del torio, más abundante que el uranio.
  • Recarga en funcionamiento.
  • Mayor seguridad intrínseca. Se puede construir bajo tierra.
  • No necesita agua. Se puede instalar en zonas áridas.
  • Sin riesgo de proliferación: no es material fisible.

(https://i.imgur.com/ShQiDKw.jpg)

El torio es de 3 a 4 veces más abundante que el uranio en la Tierra, existe en una sola forma isotópica, Th-232, que se desintegra muy lentamente y por eso es muy poco radiactivo. Su periodo de semidesintegración es de 14.000 millones de años, tres veces la edad de la Tierra.

(https://i.imgur.com/dXD43fN.jpg)

El uranio-235 (y el uranio-233), al recibir un neutrón, se excita y se fragmenta en dos o tres productos de fisión (elementos químicos más ligeros) y emite varios neutrones, que causan nuevas fisiones (reacción en cadena) o son capturados por el uranio-238 o el torio-232.

(https://i.imgur.com/kkzMRji.jpg)

El torio-232 no es fisible (no se fragmenta al recibir un neutrón), sino que se convierte en torio-233, que decae emitiendo un electrón y se convierte en protoactinio-233, que a su vez decae emitiendo otro electrón en uranio-233, que sí es fisible.

(https://i.imgur.com/ZtcLgxl.jpg)

Los reactores de sales fundidas (MSR, molten salt reactors) utilizan como refrigerante sales de fluoruro de litio-berilo (FliBe) fundidas a muy baja presión. El concepto de un MSR es tener el combustible disuelto como sal, evitando el riesgo de una fusión del núcleo.

(https://i.imgur.com/1INx9R1.jpg)

El torio, el uranio y el plutonio forman sales de fluoruro que se disuelven fácilmente en el refrigerante. La vida útil del combustible está entre los 4 y 7 años, con un elevado alto de quemado (forma habitual de llamar a la fisión), prácticamente el 100%.

Una ventaja de los MSR es que se puede ir extrayendo en funcionamiento los productos de fisión mediante métodos electrotérmicos, ayudando a tener mucho menos calor residual cuando se para el reactor (causante de las fusiones de los 3 núcleos de Fukushima, por ejemplo).

Los actínidos (elementos pesados entre los que se encuentra el uranio y el plutonio) se reciclan completamente y permanecen en el reactor hasta que fisionan o se convierten en otros actínidos fisionables, que también terminan fisionando.

Los residuos del TMSR son solo productos de fisión, altamente radiactivos, pero con periodos de semidesintegración mucho más cortos (decenas de años, en lugar de miles) y tienen menos combustible porque fisionan cerca del 100%, en lugar del 5% de los reactores actuales.

La seguridad es muy alta debido al enfriamiento pasivo del reactor, sin necesidad de alimentación eléctrica. Además, en caso de alcanzar temperaturas excesivas en el reactor, las sales se drenan por gravedad automáticamente hasta depósitos diseñados para evitar fisiones.

Los MSR tienen una gran capacidad de seguimiento de carga, para actuar como respaldo de las renovables variables (eólica y solar). La presión de funcionamiento es muy próxima a la atmosférica, eliminando el riesgo de liberación de materiales radiactivos volátiles.

China lleva trabajando en los reactores de sales fundidas desde 1970. Actualmente dispone de dos líneas de investigación y desarrollo: reactores de combustible nuclear sólido (TMSR-SF) y reactores de combustible nuclear líquido (TMSR-LF).

(https://i.imgur.com/9u9EKFo.jpg)

El proyecto TMSR-SF (combustible nuclear sólido) está optimizado para altas temperaturas y aplicaciones híbridas, como producción de electricidad, de hidrógeno, desalinización y calor industrial. Sigue su propio camino, aunque no es el objetivo de este hilo.

Citar
(https://i.imgur.com/jg2KCMA.jpg)

El proyecto TMSR-LF (combustible líquido) está optimizado para la utilización del torio. El reactor experimental TMSR-LF1 de sales fundidas, de 2 MWt (térmicos) de potencia, que ya está construido y preparado para comenzar a realizar pruebas.

(https://i.imgur.com/0eaezCL.jpg)

En 2025 está previsto un reactor de 10 MWt (TMSR-LF2) y una central nuclear de demostración de 100 MWt (TMSR-LF3) con reprocesamiento pirometalúrgico completo (separación de minerales mediante altas temperaturas) para 2035, seguida de otra planta de demostración de 1 GW.

(https://i.imgur.com/Z8sLGE2.jpg)

La planificación del programa TMSR incluye tres etapas: iniciación, demostración y promoción. Con el reactor TMSR-LF1 construido, se da por finalizada la etapa de iniciación y ahora comenzará la etapa de demostración.

(https://i.imgur.com/beZllhM.jpg)

El TMSR-LF1 de 2 MWt está en Wu Wei, Gansu, y tiene un presupuesto de 3300 M$. Utiliza combustible con un enriquecimiento menor del 20% de U-235 y unos 50 kg de torio. El refrigerante es FliBe con un 99,95% de Li-7 y combustible en forma de UF4 (tetrafluoruro de uranio).

(https://i.imgur.com/MKhiijF.jpg)

Es importante señalar que el proyecto TMSR no el único del mundo: @TerrestrialMSR (https://twitter.com/TerrestrialMSR) (CANADA), @Transatomic Power (https://twitter.com/Transatomic) (EEUU), Fuji MSR (Japón, Rusia, EEUU), Thorcon (EEUU), @SeaborgTech (https://twitter.com/SeaborgTech) (Dinamarca), Southern (EEUU), Elysium (EEUU y Canadá).

El futuro nuclear se presenta apasionante.

(https://i.imgur.com/gkukceL.jpg)

REFERENCIAS
  • Molten Salt Reactors. @WorldNuclear (https://twitter.com/WorldNuclear) https://world-nuclear.org/information-library/current-and-future-generation/molten-salt-reactors.aspx
  • China prepares to test thorium-fuelled nuclear reactor. @Nature (https://twitter.com/Nature) https://nature.com/articles/d41586-021-02459-w
  • Hongjie Xu (2017). Status and Perspective of TMSR in China. https://gen-4.org/gif/upload/docs/application/pdf/2017-05/03_hongjie_xu_china.pdf
ANEXO

El TMSR-LF1 no es el primer reactor en utilizar torio, pero sí el primer reactor de sales fundidas (MSR) en hacerlo. Más información sobre el torio.

https://twitter.com/OperadorNuclear/status/1440179207636590599
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 05, 2021, 19:49:37 pm
Citar
Germany Unveils World's First Commercial Plant For Making Synthetic Kerosene (https://news.slashdot.org/story/21/10/04/2236211/germany-unveils-worlds-first-commercial-plant-for-making-synthetic-kerosene)
Posted by BeauHD on Monday October 04, 2021 @10:02PM from the fuel-of-the-future dept.

German officials on Monday unveiled what they said is the world's first commercial plant for making synthetic kerosene (https://apnews.com/article/science-business-environment-and-nature-1f8cf770bf4b6b742438335390c0f6ce), touted as a climate-friendly fuel of the future. The Associated Press reports:

Citar
The facility in Werlte, near Germany's northwestern border with the Netherlands, will use water and electricity from four nearby wind farms to produce hydrogen. In a century-old process, the hydrogen is combined with carbon dioxide to make crude oil, which can then be refined into jet fuel. Burning that synthetic kerosene releases only as much CO2 into the atmosphere as was previously removed to produce the fuel, making it "carbon neutral."

The amount of fuel that the plant can produce beginning early next year is modest: just eight barrels a day, or about 336 gallons of jet fuel. That would be enough to fill up one small passenger plane every three weeks. By comparison, total fuel consumption of commercial airlines worldwide reached 95 billion gallons in 2019, before the pandemic hit the travel industry, according to the International Air Transport Association, or IATA. But Atmosfair, a German non-profit group behind the project, says its purpose is to show that the process is technologically feasible and -- once it is scaled up and with sufficient demand -- economically viable.

Initially the price of synthetic kerosene produced in Werlte will be far higher than that of regular jet fuel, though Atmosfair won't divulge how much it will be charging its first customer, the German airline Lufthansa. However Atmosfair's chief executive, Dietrich Brockhagen, says a price of 5 euros ($5.80) per liter (0.26 gallons) is possible. That's still several times what kerosene currently costs, but Atsmofair is banking on carbon taxes driving up the price of fossil fuels, making his product more competitive. Additionally, authorities at the national and European level are putting in place quotas for the amount of e-fuel that airlines will have to use in future. That will create demand, making it more attractive to invest in bigger and better plants. Ueckerdt said 5 euros per liter is feasible by 2030, when the European Union's executive may require airlines to meet 0.7% of their kerosene needs with e-fuels. Under current plans, that would rise to 28% by 2050.
Saludos.
Título: Re:STEM
Publicado por: dmar en Octubre 10, 2021, 16:52:05 pm
Citar
Germany Unveils World's First Commercial Plant For Making Synthetic Kerosene (https://news.slashdot.org/story/21/10/04/2236211/germany-unveils-worlds-first-commercial-plant-for-making-synthetic-kerosene)
Posted by BeauHD on Monday October 04, 2021 @10:02PM from the fuel-of-the-future dept.

German officials on Monday unveiled what they said is the world's first commercial plant for making synthetic kerosene (https://apnews.com/article/science-business-environment-and-nature-1f8cf770bf4b6b742438335390c0f6ce), touted as a climate-friendly fuel of the future. The Associated Press reports:

Citar
The facility in Werlte, near Germany's northwestern border with the Netherlands, will use water and electricity from four nearby wind farms to produce hydrogen. In a century-old process, the hydrogen is combined with carbon dioxide to make crude oil, which can then be refined into jet fuel. Burning that synthetic kerosene releases only as much CO2 into the atmosphere as was previously removed to produce the fuel, making it "carbon neutral."

The amount of fuel that the plant can produce beginning early next year is modest: just eight barrels a day, or about 336 gallons of jet fuel. That would be enough to fill up one small passenger plane every three weeks. By comparison, total fuel consumption of commercial airlines worldwide reached 95 billion gallons in 2019, before the pandemic hit the travel industry, according to the International Air Transport Association, or IATA. But Atmosfair, a German non-profit group behind the project, says its purpose is to show that the process is technologically feasible and -- once it is scaled up and with sufficient demand -- economically viable.

Initially the price of synthetic kerosene produced in Werlte will be far higher than that of regular jet fuel, though Atmosfair won't divulge how much it will be charging its first customer, the German airline Lufthansa. However Atmosfair's chief executive, Dietrich Brockhagen, says a price of 5 euros ($5.80) per liter (0.26 gallons) is possible. That's still several times what kerosene currently costs, but Atsmofair is banking on carbon taxes driving up the price of fossil fuels, making his product more competitive. Additionally, authorities at the national and European level are putting in place quotas for the amount of e-fuel that airlines will have to use in future. That will create demand, making it more attractive to invest in bigger and better plants. Ueckerdt said 5 euros per liter is feasible by 2030, when the European Union's executive may require airlines to meet 0.7% of their kerosene needs with e-fuels. Under current plans, that would rise to 28% by 2050.
Saludos.

Nuevas tecnologías que son más caras que lo anterior y cuya esperanza para ser competitivas es el encarecimiento artificial de los competidores.
No compro que esto vaya a generar más innovación.  La innovación nace de necesidades REALES, no artificiales.  Y en todo caso esta innovación va a estar constreñida por el crunch de energía y dinero.

¿Soy el único que piensa que esto es demencial?  Estamos creando carestía artificial.  Un suicidio.
Puro masoquismo para salvar el planeta.  Muy cristiano todo.  Muy chiringuito "verde" improductivo.

Y muy INFLACIONISTA.

Título: Re:STEM
Publicado por: dmar en Octubre 10, 2021, 16:53:08 pm
Citar
Germany Unveils World's First Commercial Plant For Making Synthetic Kerosene (https://news.slashdot.org/story/21/10/04/2236211/germany-unveils-worlds-first-commercial-plant-for-making-synthetic-kerosene)
Posted by BeauHD on Monday October 04, 2021 @10:02PM from the fuel-of-the-future dept.

German officials on Monday unveiled what they said is the world's first commercial plant for making synthetic kerosene (https://apnews.com/article/science-business-environment-and-nature-1f8cf770bf4b6b742438335390c0f6ce), touted as a climate-friendly fuel of the future. The Associated Press reports:

Citar
The facility in Werlte, near Germany's northwestern border with the Netherlands, will use water and electricity from four nearby wind farms to produce hydrogen. In a century-old process, the hydrogen is combined with carbon dioxide to make crude oil, which can then be refined into jet fuel. Burning that synthetic kerosene releases only as much CO2 into the atmosphere as was previously removed to produce the fuel, making it "carbon neutral."

The amount of fuel that the plant can produce beginning early next year is modest: just eight barrels a day, or about 336 gallons of jet fuel. That would be enough to fill up one small passenger plane every three weeks. By comparison, total fuel consumption of commercial airlines worldwide reached 95 billion gallons in 2019, before the pandemic hit the travel industry, according to the International Air Transport Association, or IATA. But Atmosfair, a German non-profit group behind the project, says its purpose is to show that the process is technologically feasible and -- once it is scaled up and with sufficient demand -- economically viable.

Initially the price of synthetic kerosene produced in Werlte will be far higher than that of regular jet fuel, though Atmosfair won't divulge how much it will be charging its first customer, the German airline Lufthansa. However Atmosfair's chief executive, Dietrich Brockhagen, says a price of 5 euros ($5.80) per liter (0.26 gallons) is possible. That's still several times what kerosene currently costs, but Atsmofair is banking on carbon taxes driving up the price of fossil fuels, making his product more competitive. Additionally, authorities at the national and European level are putting in place quotas for the amount of e-fuel that airlines will have to use in future. That will create demand, making it more attractive to invest in bigger and better plants. Ueckerdt said 5 euros per liter is feasible by 2030, when the European Union's executive may require airlines to meet 0.7% of their kerosene needs with e-fuels. Under current plans, that would rise to 28% by 2050.
Saludos.

Nuevas tecnologías que son más caras que lo anterior y cuya esperanza para ser competitivas es el encarecimiento artificial de los competidores.
No compro que esto vaya a generar más innovación.  La innovación nace de necesidades REALES, no artificiales.  Y en todo caso esta innovación va a estar constreñida por el crunch de energía y dinero.

¿Soy el único que piensa que esto es demencial?  Estamos creando carestía artificial.  Un suicidio.
Puro masoquismo para salvar el planeta.  Muy cristiano todo.  Muy chiringuito "verde" improductivo.

Y muy INFLACIONISTA.

EDITO:  y regresivo.  Volar sólo para ricos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 13, 2021, 23:35:59 pm
Nuevas tecnologías que son más caras que lo anterior y cuya esperanza para ser competitivas es el encarecimiento artificial de los competidores.
No compro que esto vaya a generar más innovación.  La innovación nace de necesidades REALES, no artificiales.  Y en todo caso esta innovación va a estar constreñida por el crunch de energía y dinero.

¿Soy el único que piensa que esto es demencial?  Estamos creando carestía artificial.  Un suicidio.
Puro masoquismo para salvar el planeta.  Muy cristiano todo.  Muy chiringuito "verde" improductivo.

Y muy INFLACIONISTA.

EDITO:  y regresivo.  Volar sólo para ricos.
Le respondo entresacando de su respuesta esta única frase:

Estamos creando carestía artificial.
Usted está partiendo de la hipótesis de que esta tecnología solo tiene sentido si se encarecen artificialmente las alternativas, eso implicaría que existe una especie de "complot" para crear escasez de combustibles fósiles derivados del petroleo que permita que este tipo de tecnologías sean rentables.

¿Y si, aplicando la navaja de Ockham, resulta que la gente que está invirtiendo en el desarrollo de esta tecnología está anticipando el hecho de que, en un futuro no demasiado lejano, debido a una carencia natural de combustibles fósiles baratos su tecnología será la mejor opción que tengamos para poder mantener la industria aeronáutica a flote?

Aquí solo hay dos opciones:

1. Que sigamos disponiendo de combustibles fósiles derivados del petroleo a bajo coste por un tiempo prolongado, con lo que las empresas que desarrollen este tipo de tecnologías acaben quebrando
2. Que en un futuro no muy lejano se produzca una escasez natural de combustibles fósiles que haga que, a pesar de que el coste de producir un litro de queroseno sintético sea alto, crearlo de forma artificial sea la opción más rentable.

En mi opinión no tiene ningún sentido considerar que la escasez de combustibles derivados del petroleo sea un plan urdido por no sé qué grupo de altos dirigentes mundiales.

Llevamos más de doscientos quemando combustibles fósiles (primero carbón y luego, cuando aprendimos a refinar el crudo, todo tipo de derivados del petroleo) porque era la forma más barata de acceder a ingentes cantidades de energía y, gracias a ello, hemos tenido el crecimiento que hemos tenido en estos últimos 200 años.

No he logrado encontrar una imagen que se remonte más atrás de 1950, pero la siguiente imagen (que he encontrado en este (https://www.api.org/news-policy-and-issues/blog/2021/02/24/is-the-world-about-to-see-an-oil-shortage) post del blog del American Petroleum Institute) nos sirve para ver como ha ido creciendo el consumo de combustibles fósiles en los últimos 70 años:

(https://i.imgur.com/DVe7vOk.png)

Mire con detenimiento esta gráfica que he sacado de esta (https://www.iea.org/data-and-statistics/charts/global-oil-demand-in-the-sustainable-development-scenario-and-decline-in-supply-from-2019-to-2040) página de la Agencia Internacional de la Energía en la que se puede ver como la producción de petroleo ha ido creciendo año a año y la evolución del consumo de petroleo pronosticada por la AIE en lo que llaman "un escenario de desarrollo sostenible" (SDS en sus siglas en inglés):

(https://i.imgur.com/QD9Qng4.png)

Antonio Turiel, por su parte, no para de hacer refencia a esta otra gráfica publicada por la IAE en su informe de 2020 y que refleja lo mismo aunque añadiendo dos escenarios alternativos que, en el mejor de los casos permitiría mantener una producción un poco por encima de los 100 millones de barriles diarios:

(https://i.imgur.com/bsOnE6U.png)

Ahora lea este (http://foro-crashoil.109.s1.nabble.com/100-millones-de-barriles-de-petroleo-al-dia-td47297.html) post escrito el 16 de septiembre de 2018 en Foro Crashoil por el forero Andarríos:

Citar
100 millones de barriles de petróleo al día

Según la Agencia Internacional de la Energía, la producción mundial de petróleo en agosto fue de 100 mb/d, aunque aún es un dato sujeto a reajustes. De modo que la producción mensual quedaría algo como este gráfico:

(https://i.imgur.com/62xj4zV.jpg)

A algunos nos parecía imposible que se pudiera alcanzar tal cantidad, y así ha sido batiendo un nuevo récord histórico. Pero no ha sido fácil, y ha costado eliminar los recortes del acuerdo de Viena. Una eliminación que se dijo iba a ser paulatina pero a la hora de la verdad de paulatina, nada. Y todos los países se sumaron a una carrera para restablecer sus niveles de producción iniciales. El único que mostró moderación fue Arabia Saudí que actuó como regulador para evitar que el precio del barril de Brent cayera de los 70$, algo que no le favorecía inicialmente, ya la situación ha cambiado. Pero es que incluso parecía difícil que la producción de agosto superara la de julio, y no sólo la ha alcanzado sino que la ha rebasado con creces. En esto también hay que decir que la recuperación de la producción de Libia ha contribuido bastante.

Ahora, bien, si ya parecía difícil que aumentara la producción en agosto, pero se ha conseguido, más difícil se presenta aumentar la producción en septiembre y en los próximos meses. La razones, ya conocidas, nunca están de más recordarlas:

   • La saturación de los oleoductos de la Cuenca Pérmica, cada vez más patente, incluso muchos medios ya se hacen eco de la "desaceleración" en la producción de EU para el año próximo.
   • La eliminación de los recortes de los países de la OPEP y aliados, de modo que están produciendo (casi) a toda máquina.
   • La producción de petróleo mundial tiene pérdidas mensuales de más de 100.000 b/d.

Y esto es así sin considerar las sanciones a Irán, que han acelerado todo el proceso.

De modo que la pregunta que deberíamos hacernos es:

¿Será agosto de 2018 el pico de todos los líquidos del petróleo?
Piensen en esa cifra tan redonda de 100 millones de barriles diarios e intenten imaginar la cantidad de petroleo que supone eso: ayer, mañana, pasado mañana, ...

El otro día, en el vídeo que nos trajo AbiertoPorDemolicion de la entrevista que hizo a Antonio Turiel el 3 de abril de 2021 la gente de Sobrevivir Al Descalabro (https://sobreviviraldescalabro.org/):

Otra entrevista al siempre interesante Antonio turiel

[url]https://m.youtube.com/watch?v=N2DFA-EX91A&feature=youtu.be[/url] ([url]https://m.youtube.com/watch?v=N2DFA-EX91A&feature=youtu.be[/url])
Antonio Turiel comentaba que, incluso si se diese por descontado que va a existir financiación para ello, hacen falta entre 5 y 10 años para abrir un nuevo pozo de petroleo y, como es evidente, en este momento lo último en lo que deben estar pensando las compañias petroleras en en abrir nuevos pozos sabiendo —como saben— que la fabricación de vehículos con motores de combustión interna tiene los días contados.

Y no, la razón para ello no es que todo el mundo se haya puesto de acuerdo para dejar de quemar combustibles fósiles por el bien del planeta, si se hace ahora es porque no queda más remedio, toca decrecer, porque es inviable seguir extrayendo 100 millones de barriles de petroleos al día indefinidamente sin que el coste de extracción de esa energía supere en algún momento el punto en el que extraer un nuevo barril de petroleo cueste más que la energía que podemos extraer de ese barril.

Evidentemente, seguiremos extrayendo petroleo a pesar de que no salga rentable ni desde el punto de vista econóimico ni energético (véase la industria del fracking en USA) porque a día de hoy, el 70% de la energía consumida en el mundo proviene de los combustibles fósiles y no se puede hacer la transición energética de un día para otro, pero tecnologías que nos permiten fabricar queroseno utilizando agua y electricidad (que puede provenir de otras fuentes de energía como: la hidroeléctrica, la nuclear, la eólica, la solar, la geotérmica, etc.) podría ser la única forma que tengamos de evitar tener que dejar todos los aviones en tierra.

Y evidentemente que volar será para ricos (al menos hasta que se logre avanzar en la transición energética), pero eso es lo que el forero mpt bautizó en su día como "hoy no me quiero deflactar", y en este foro llevamos años anticipando el día en el que ese ese "hoy" no se pueda dejar para mañana, y todos los indicadores apuntan a que ese día está ya muy cerca.

Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Octubre 14, 2021, 09:28:35 am
[...] Antonio Turiel comentaba que, incluso si se diese por descontado que va a existir financiación para ello, hacen falta entre 5 y 10 años para abrir un nuevo pozo de petroleo y, como es evidente, en este momento lo último en lo que deben estar pensando las compañias petroleras en en abrir nuevos pozos sabiendo —como saben— que la fabricación de vehículos con motores de combustión interna tiene los días contados.

Citar
Probablemente en este momento sea imposible decir cuál de los dos bandos tiene razón. Según lo expresó el físico Niels Bohr: «Es muy difícil predecir, sobre todo el futuro». Para un sistema complejo, como lo es la economía mundial, ya es suficientemente difícil comprender el pasado, por ejemplo, el masivo declive del empleo en el sector manufacturero durante los últimos veinte años en casi todos los países. Lo que es más fácil establecer son los vínculos causales que pueden determinar el resultado.
Para que el futuro nos funcione
https://nuso.org/articulo/para-que-el-futuro-nos-funcione/ (https://nuso.org/articulo/para-que-el-futuro-nos-funcione/)
Título: Re:STEM
Publicado por: sudden and sharp en Octubre 16, 2021, 13:07:42 pm
Tunato, el falso atún rojo elaborado con tomates españoles que está triunfando alrededor del mundo
https://www.eleconomista.es/actualidad/noticias/11415218/10/21/Tunato-el-falso-atun-rojo-elaborado-con-tomates-espanoles-que-esta-triunfando-alrededor-del-mundo.html (https://www.eleconomista.es/actualidad/noticias/11415218/10/21/Tunato-el-falso-atun-rojo-elaborado-con-tomates-espanoles-que-esta-triunfando-alrededor-del-mundo.html)

Citar
- ¿Cuál es la diferencia competitiva de Mimic Seafood respecto al resto de tecnológicas del sector?

Somos la primera empresa en Europa que produce una alternativa al pescado crudo. Nuestro primer producto, Tunato, ofrece la experiencia de consumir atún rojo en preparaciones como sushi o tartar, pero nuestra intención no es quedarnos aquí, y tenemos preparados otros productos que empezaremos a comercializar dentro de poco.

¿I+D? ¿En España? ¿Por qué no?

(https://s03.s3c.es/imag/_v0/770x420/1/c/9/tunato.jpg)
Título: Re:STEM
Publicado por: dmar en Octubre 17, 2021, 16:22:22 pm
Nuevas tecnologías que son más caras que lo anterior y cuya esperanza para ser competitivas es el encarecimiento artificial de los competidores.
No compro que esto vaya a generar más innovación.  La innovación nace de necesidades REALES, no artificiales.  Y en todo caso esta innovación va a estar constreñida por el crunch de energía y dinero.

¿Soy el único que piensa que esto es demencial?  Estamos creando carestía artificial.  Un suicidio.
Puro masoquismo para salvar el planeta.  Muy cristiano todo.  Muy chiringuito "verde" improductivo.

Y muy INFLACIONISTA.

EDITO:  y regresivo.  Volar sólo para ricos.
Le respondo entresacando de su respuesta esta única frase:

Estamos creando carestía artificial.
Usted está partiendo de la hipótesis de que esta tecnología solo tiene sentido si se encarecen artificialmente las alternativas, eso implicaría que existe una especie de "complot" para crear escasez de combustibles fósiles derivados del petroleo que permita que este tipo de tecnologías sean rentables.

¿Y si, aplicando la navaja de Ockham, resulta que la gente que está invirtiendo en el desarrollo de esta tecnología está anticipando el hecho de que, en un futuro no demasiado lejano, debido a una carencia natural de combustibles fósiles baratos su tecnología será la mejor opción que tengamos para poder mantener la industria aeronáutica a flote?

Habla VD de usar la navaja de Ockham y lo primero que hace es decir que yo mantengo (sin que se deduzca eso de mi post previp) que existe un complot.

Yo no digo eso.  ¿Por qué iba a haber un complot donde bastan el idealismo y la estupidez?  Ockham.

Es un sinsentido crear escasez artificial para prepararse para un hipotético futuro peor.  El hombre se esfuerza mucho para superar las necesidades REALES.  Las artificiales no, porque siempre sabe que el método de menor esfuerzo para superarlas es... luchar por suspender las restricciones artificiales.

La reacción de las clases bajas cuando haya un establishment que les diga claramente que deben joderse y vivir peor no va a ser precisamente en ese sentido.  Y no creo que sea bonita.

Y evidentemente que volar será para ricos (al menos hasta que se logre avanzar en la transición energética), pero eso es lo que el forero mpt bautizó en su día como "hoy no me quiero deflactar", y en este foro llevamos años anticipando el día en el que ese ese "hoy" no se pueda dejar para mañana, y todos los indicadores apuntan a que ese día está ya muy cerca.

Saludos.

El decrecentismo es una ideología de raíces pseudo-religiosas, plena de masoquismo y complejo de culpa católico.  Turiel es un pope, no un científico.
Es que esto ya lo hemos tenido que soportar con Malthus, por ejemplo.
Y el apocalipsis nunca llega.

El sentido de la humanidad siempre ha sido, y seguirá siendo, gastar más energía y vivir mejor (y lo logrará como en otros cuellos de botella anteriores). 
Decrecer no es algo por lo que merezca luchar, es regresivo.  Como ideología, lo que venden no vale.  Está sacado del año 1000.



Título: Re:STEM
Publicado por: wanderer en Octubre 17, 2021, 21:05:34 pm
Yo siempre entendí que el sentido del decrecentismo es convergencia asintótica:
el mundo occidental decrecerá, mientras que Oriente en general y China en particular, tomarán el testigo del crecimiento.

Globalmente seguiremos creciendo, y mucho, pero eso no quitará decrecimiento por estos pagos (en todo Occidente; en España y según que sitios, volveremos a la miseria de la que vinimos).

Por lo demás, totalmente de acuerdo que la ideología decrecentista es un sinsentido a nivel general; descendiendo a lo particular, la cosa cambia. Y globalmente es totalmente inaceptable, por mucha ideología "protejamos al planeta y luchemos contra el cambio climático" que se quiera vender.
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 18, 2021, 21:47:06 pm
Habla VD de usar la navaja de Ockham y lo primero que hace es decir que yo mantengo (sin que se deduzca eso de mi post previp) que existe un complot.

Yo no digo eso.  ¿Por qué iba a haber un complot donde bastan el idealismo y la estupidez?  Ockham.
Le pido disculpas por malinerpretar su mensaje entonces.

Es un sinsentido crear escasez artificial para prepararse para un hipotético futuro peor.  El hombre se esfuerza mucho para superar las necesidades REALES.  Las artificiales no, porque siempre sabe que el método de menor esfuerzo para superarlas es... luchar por suspender las restricciones artificiales.
Es lo que he puesto en negrita lo que no comparto con usted. Yo no pienso que la escasez de energía barata ante la que nos enfrentamos sea algo artificial (i.e inventado/auto-impuesto) básicamente porque no conviene a nadie. Los últimos dos siglos han sido, sin duda, dos siglos de progreso en cuanto a lo que a calidad de vida se refiere y nadie desea volver a épocas anteriores, ni siquiera a los que defienden la necesidad de hacer una transición energética a fuentes de energía renovables (o, al menos, no dependientes de combustibles fósiles como el carbón, el petroleo o el gas natural).

El decrecentismo es una ideología de raíces pseudo-religiosas, plena de masoquismo y complejo de culpa católico.  Turiel es un pope, no un científico.
Es que esto ya lo hemos tenido que soportar con Malthus, por ejemplo.
Y el apocalipsis nunca llega.

El sentido de la humanidad siempre ha sido, y seguirá siendo, gastar más energía y vivir mejor (y lo logrará como en otros cuellos de botella anteriores). 
Decrecer no es algo por lo que merezca luchar, es regresivo.  Como ideología, lo que venden no vale.  Está sacado del año 1000.
Turiel sí es un científico tal y como puede comprobar en esta (https://es.wikipedia.org/wiki/Antonio_Turiel_Mart%C3%ADnez) entrada de la Wikipedia:

Citar
Antonio Turiel Martínez (nacido en León, 1970) es un científico y divulgador licenciado en Física y Matemáticas y doctor en Física Teórica por la Universidad Autónoma de Madrid. Trabaja como Investigador Científico en el Institut de Ciències del Mar del CSIC.
que podrá ser más o menos completa pero que, como todo lo que aparece en la Wikpedia, debe basarse en datos contrastados y contar con referencias a otras fuentes de información.

Y, como todos los científicos, elabora teorías/hipótesis y luego, en base a los datos a los que tiene acceso, analiza si esas teorías/hipótesis se corresponden o no con los datos (leyendo su blog (https://crashoil.blogspot.com/) se puede ver como, efectivamente ha tenido que ir ajustando sus previsiones a lo largo de los años y como ha ido incorporando "avances" como, por ejemplo, el fracking en sus previsiones; básicamente lo mismo que nos ha tocado hacer a nosotros en T.E. cada vez que el Gobierno, los BB.CC.  o cualquier otra entidad ha cambiado las reglas del juego a mitad de la partida).

Y creo que todos estamos de acuerdo en que es absurdo buscar el decrecentismo como objetivo de la humanidad a largo plazo.

Tal y como comenta wanderer en el post anterior, el decrecentismo del que habla Turiel no busca el volver a una era pre-industrial, sino el poner freno al intento de crecer a un ritmo no sostenible (i.e. 4% anual, ó 2%, o lo que sea que se haya fijado actualmente) in sécula seculórum ya que, obviamente, no es sostenible por un periodo de tiempo prolongado.

En otros posts hemos visto como todas las previsiones apuntan a una disminución de la población mundial de aquí a finales de siglo y eso, evidentemente, no es casualidad, no podemos seguir aumentando la población al ritmo que se ha estado haciendo hasta ahora, en eso entiendo que estamos todos de acuerdo viendo esta gráfica:

(https://i.imgur.com/53Q0d80.png)
https://ourworldindata.org/world-population-growth (https://ourworldindata.org/world-population-growth)

Comparto con wanderer la idea de que durante las próximas décadas veremos un decrecimiento de occidente y un crecimiento de otras regiones y, a pesar de que comparto buena parte de las tesis de Antonio Turiel, creo que tras esa fase de decrecimiento que nos permita alcanzar cierto equilibrio con el planeta (básicamente, evitar "consumir" más de un planeta "Tierra" al año (https://www.microsiervos.com/archivo/ecologia/dia-deuda-ecologica-planeta.html), tal y como mide el Earth Overshoot Day o Día de la deuda ecológica (https://es.wikipedia.org/wiki/D%C3%ADa_de_la_Deuda_Ecol%C3%B3gica)) podremos retomar la senda del crecimiento evitando entrar de nuevo en crecimientos exponenciales abocados al desastre.

Todo esto no implica que la humanidad no pueda seguir creciendo indefinidamente (el único límite teórico sería consumir toda la energía de nuestro universo), según vayamos teniendo acceso a nuevas formas de energía (e.g. fusión nuclear) podremos retomar tasas de crecimiento más altas, pero no podemos volver a incurrir en el error de consumir más energía de la que podemos obtener de forma sostenible porque eso, tarde o temprano, obliga a "echar el freno" en forma de decrecimiento aunque sea de forma temporal.

Saludos.
Título: Re:STEM
Publicado por: pollo en Octubre 19, 2021, 12:05:27 pm
Habla VD de usar la navaja de Ockham y lo primero que hace es decir que yo mantengo (sin que se deduzca eso de mi post previp) que existe un complot.

Yo no digo eso.  ¿Por qué iba a haber un complot donde bastan el idealismo y la estupidez?  Ockham.
Le pido disculpas por malinerpretar su mensaje entonces.

Es un sinsentido crear escasez artificial para prepararse para un hipotético futuro peor.  El hombre se esfuerza mucho para superar las necesidades REALES.  Las artificiales no, porque siempre sabe que el método de menor esfuerzo para superarlas es... luchar por suspender las restricciones artificiales.
Es lo que he puesto en negrita lo que no comparto con usted. Yo no pienso que la escasez de energía barata ante la que nos enfrentamos sea algo artificial (i.e inventado/auto-impuesto) básicamente porque no conviene a nadie. Los últimos dos siglos han sido, sin duda, dos siglos de progreso en cuanto a lo que a calidad de vida se refiere y nadie desea volver a épocas anteriores, ni siquiera a los que defienden la necesidad de hacer una transición energética a fuentes de energía renovables (o, al menos, no dependientes de combustibles fósiles como el carbón, el petroleo o el gas natural).

El decrecentismo es una ideología de raíces pseudo-religiosas, plena de masoquismo y complejo de culpa católico.  Turiel es un pope, no un científico.
Es que esto ya lo hemos tenido que soportar con Malthus, por ejemplo.
Y el apocalipsis nunca llega.

El sentido de la humanidad siempre ha sido, y seguirá siendo, gastar más energía y vivir mejor (y lo logrará como en otros cuellos de botella anteriores). 
Decrecer no es algo por lo que merezca luchar, es regresivo.  Como ideología, lo que venden no vale.  Está sacado del año 1000.
Turiel sí es un científico tal y como puede comprobar en esta (https://es.wikipedia.org/wiki/Antonio_Turiel_Mart%C3%ADnez) entrada de la Wikipedia:

Citar
Antonio Turiel Martínez (nacido en León, 1970) es un científico y divulgador licenciado en Física y Matemáticas y doctor en Física Teórica por la Universidad Autónoma de Madrid. Trabaja como Investigador Científico en el Institut de Ciències del Mar del CSIC.
que podrá ser más o menos completa pero que, como todo lo que aparece en la Wikpedia, debe basarse en datos contrastados y contar con referencias a otras fuentes de información.

Y, como todos los científicos, elabora teorías/hipótesis y luego, en base a los datos a los que tiene acceso, analiza si esas teorías/hipótesis se corresponden o no con los datos (leyendo su blog (https://crashoil.blogspot.com/) se puede ver como, efectivamente ha tenido que ir ajustando sus previsiones a lo largo de los años y como ha ido incorporando "avances" como, por ejemplo, el fracking en sus previsiones; básicamente lo mismo que nos ha tocado hacer a nosotros en T.E. cada vez que el Gobierno, los BB.CC.  o cualquier otra entidad ha cambiado las reglas del juego a mitad de la partida).

Y creo que todos estamos de acuerdo en que es absurdo buscar el decrecentismo como objetivo de la humanidad a largo plazo.

Tal y como comenta wanderer en el post anterior, el decrecentismo del que habla Turiel no busca el volver a una era pre-industrial, sino el poner freno al intento de crecer a un ritmo no sostenible (i.e. 4% anual, ó 2%, o lo que sea que se haya fijado actualmente) in sécula seculórum ya que, obviamente, no es sostenible por un periodo de tiempo prolongado.

En otros posts hemos visto como todas las previsiones apuntan a una disminución de la población mundial de aquí a finales de siglo y eso, evidentemente, no es casualidad, no podemos seguir aumentando la población al ritmo que se ha estado haciendo hasta ahora, en eso entiendo que estamos todos de acuerdo viendo esta gráfica:

(https://i.imgur.com/53Q0d80.png)
https://ourworldindata.org/world-population-growth (https://ourworldindata.org/world-population-growth)

Comparto con wanderer la idea de que durante las próximas décadas veremos un decrecimiento de occidente y un crecimiento de otras regiones y, a pesar de que comparto buena parte de las tesis de Antonio Turiel, creo que tras esa fase de decrecimiento que nos permita alcanzar cierto equilibrio con el planeta (básicamente, evitar "consumir" más de un planeta "Tierra" al año (https://www.microsiervos.com/archivo/ecologia/dia-deuda-ecologica-planeta.html), tal y como mide el Earth Overshoot Day o Día de la deuda ecológica (https://es.wikipedia.org/wiki/D%C3%ADa_de_la_Deuda_Ecol%C3%B3gica)) podremos retomar la senda del crecimiento evitando entrar de nuevo en crecimientos exponenciales abocados al desastre.

Todo esto no implica que la humanidad no pueda seguir creciendo indefinidamente (el único límite teórico sería consumir toda la energía de nuestro universo), según vayamos teniendo acceso a nuevas formas de energía (e.g. fusión nuclear) podremos retomar tasas de crecimiento más altas, pero no podemos volver a incurrir en el error de consumir más energía de la que podemos obtener de forma sostenible porque eso, tarde o temprano, obliga a "echar el freno" en forma de decrecimiento aunque sea de forma temporal.

Saludos.
No es únicamente la energía. Hay más recursos que son limitados: minerales, metales, gases, agua, pero sobre todo espacio en el planeta.

Y el espacio en particular es muy complejo de evaluar, ya que no es tan sencillo como pensar que no es un problema porque hay muchos Km2 de superficie. Si no fuese así, no existirían los transportes ni la geopolítica, ya que daría igual hacer las cosas en un sitio que en otro. Obviamente no es así.
El propio acto de ocupar y habitar un espacio influye en el resto del espacio.

La densidad de población determina enormemente la calidad de vida. Y la solución no consiste en que nos comportemos como partículas en un gas, ya que la realidad es más compleja (en este foro llevamos años analizando esta realidad y ya sabemos lo que implican las densidades demasiado altas o demasiado bajas, y que las causas/efectos son muy complejas).

La biodiversidad y el hábitat de especies (que normalmente se usan como palabras comodín como greenwashing pseudoespiritual o político) son conceptos reales y es lo que determinan que vivas en un lugar agradable o en un puto erial con un clima insoportable, que tengas un entorno que facilite o dificulte la vida, que los alimentos sean de mejor o peor calidad, que estén más o menos disponibles, que sean o no abundantes, etc., que haya o no disponibilidad de agua potable y un largo etcétera.

Las dinámicas sociales y las igualdades y desigualdades determinan el clima social. A más desigualdades (y en particular extremas), más problemas, violencia, delincuencia etc.

Los problemas existen. Y tienen consecuencias reales sobre todos nosotros. Si la magnitud del problema aumenta sin cesar, las soluciones serán cada vez más complejas y difíciles, y llegado cierto nivel, imposibles. Lo que llevará a otro tipo de desgracias (catástrofes, guerras, etc.). Y lo más triste es que estamos usando los conocimientos que tenemos en pos de una salida (que no es viable ni realista hoy por hoy) en lugar de una solución (que esa sí que existe y está al alcance).

Viendo la evolución tecnológica, y los recursos y conocimientos que tenemos, nos destruiremos mucho antes que tener un lugar alternativo habitable en otro lugar de la galaxia, y esto siendo infantilmente optimista (que es la gilipollez que nos venden los millonetis voluntaristas para que no les linchen), porque de momento no hay ninguna forma de irse a otro planeta, y cuando la haya, pasarán como mínimo siglos (con inversiones contínuas, sacadas de no se sabe donde) hasta que se puedan llegar a unas condiciones de habitabilidad fuera de la tierra que se aproximen a algo que no sea una versión mucho peor que vivir en una pseudo prisión en la Antártida.
Todo ello aplaudido por personas que en su inmensa mayoría, no son capaces de aguantar una noche en una tienda de campaña sin el móvil en la mano.

Muchos siguen autoengañándose con fantasías y películas con tal de no aceptar que no somos omnipotentes y que las fantasías son fantasías. Hemos sustituido las promesas de una vida eterna después de la muerte con promesas de una vida eterna en esta vida, no sujeta a límites, problemas o consecuencias (las partes que no nos gustan ya las ignoramos rápidamente). Es exactamente lo mismo que lo de antes: fe e ignorancia la realidad y otros que viven de venderlo con mucha parafernalia.
Título: Re:STEM
Publicado por: dmar en Octubre 31, 2021, 17:03:07 pm
Yo siempre entendí que el sentido del decrecentismo es convergencia asintótica:
el mundo occidental decrecerá, mientras que Oriente en general y China en particular, tomarán el testigo del crecimiento.

Globalmente seguiremos creciendo, y mucho, pero eso no quitará decrecimiento por estos pagos (en todo Occidente; en España y según que sitios, volveremos a la miseria de la que vinimos).

Por lo demás, totalmente de acuerdo que la ideología decrecentista es un sinsentido a nivel general; descendiendo a lo particular, la cosa cambia. Y globalmente es totalmente inaceptable, por mucha ideología "protejamos al planeta y luchemos contra el cambio climático" que se quiera vender.


A mi me parece que lo que busca de verdad este nuevo opio del pueblo es que, muerto ya el ardor guerrero de Occidente, éste se inmunice contra la tentación de una competición violenta contra el Oriente por el crecimiento.

Pues que lo digan claro, ¿no?

La historia del hombre es la de Prometeo:  cada vez hacer uso de mayores fuentes de energía.  Bajaremos el fuego de la fusión antes de lo que se piensa y colonizaremos las estrellas en busca de otros recursos.  La vida seguirá teniendo los mismos problemas y miserias, pero mi vaticinio (arriesgado) es que ni siquiera veremos esa pérdida de población que se pronostica para este siglo.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 01, 2021, 22:05:32 pm
Citar
'We Mapped Every Large Solar Plant on Earth Using Satellites and Machine Learning' (https://hardware.slashdot.org/story/21/11/01/0126259/we-mapped-every-large-solar-plant-on-earth-using-satellites-and-machine-learning)
Posted by EditorDavid on Monday November 01, 2021 @06:34AM from the eyes-in-the-sky dept.

A team of researchers built a machine learning system to scan satellite images for solar energy-generating facilities greater than 10 kilowatts and then deployed the system (https://www.nature.com/articles/s41586-021-03957-7) on over 550 terabytes of imagery "using several human lifetimes of computing."

Team-member Lucas Kruitwagen, a climate change/AI researcher at Oxford, reveals what they learned (https://theconversation.com/we-mapped-every-large-solar-plant-on-the-planet-using-satellites-and-machine-learning-170747). "We searched almost half of Earth's land surface area, filtering out remote areas far from human populations."
Citar
In total we detected 68,661 solar facilities. Using the area of these facilities, and controlling for the uncertainty in our machine learning system, we obtain a global estimate of 423 gigawatts of installed generating capacity at the end of 2018. This is very close to the International Renewable Energy Agency's (IRENA) estimate (https://www.irena.org/publications/2019/Jul/Renewable-energy-statistics-2019) of 420 GW for the same period. Our study shows solar PV generating capacity grew by a remarkable 81% between 2016 and 2018, the period for which we had timestamped imagery. Growth was led particularly by increases in India (184%), Turkey (143%), China (120%) and Japan (119%). Facilities ranged in size from sprawling gigawatt-scale desert installations in Chile, South Africa, India and north-west China, through to commercial and industrial rooftop installations in California and Germany, rural patchwork installations in North Carolina and England, and urban patchwork installations in South Korea and Japan...

Using the back catalogue of satellite imagery, we were able to estimate installation dates for 30% of the facilities. Data like this allows us to study the precise conditions which are leading to the diffusion of solar energy, and will help governments better design subsidies to encourage faster growth. Knowing where a facility is also allows us to study the unintended consequences of the growth of solar energy generation. In our study, we found that solar power plants are most often in agricultural areas, followed by grasslands and deserts.

This highlights the need to carefully consider the impact that a ten-fold expansion of solar PV generating capacity will have in the coming decades on food systems, biodiversity, and lands used by vulnerable populations. Policymakers can provide incentives to instead install solar generation on rooftops which cause less land-use competition, or other renewable energy options.
A note at the end of the article adds that the researchers' code (https://zenodo.org/record/5045001) and data repositories (https://github.com/Lkruitwagen/solar-pv-global-inventory) have been made available online "to facilitate more research of this type and to kickstart the creation of a complete, open, and current dataset of the planet's solar energy facilities."
Citar
We mapped every large solar plant on the planet using satellites and machine learning (https://theconversation.com/we-mapped-every-large-solar-plant-on-the-planet-using-satellites-and-machine-learning-170747)
October 29, 2021

(https://i.imgur.com/7wD1V3a.jpg)
Jenson / shutterstock

An astonishing 82% decrease (https://www.nrel.gov/news/program/2021/documenting-a-decade-of-cost-declines-for-pv-systems.html) in the cost of solar photovoltaic (PV) energy since 2010 has given the world a fighting chance to build a zero-emissions energy system which might be less (https://www.inet.ox.ac.uk/publications/no-2021-01-empirically-grounded-technology-forecasts-and-the-energy-transition/) costly than the fossil-fuelled system it replaces. The International Energy Agency (https://iea.blob.core.windows.net/assets/77ecf96c-5f4b-4d0d-9d93-d81b938217cb/World_Energy_Outlook_2018.pdf) projects that PV solar generating capacity must grow ten-fold by 2040 if we are to meet the dual tasks of alleviating global poverty and constraining warming to well below 2°C.

Critical challenges remain. Solar is “intermittent”, since sunshine varies during the day and across seasons, so energy must be stored for when the sun doesn’t shine. Policy must also be designed to ensure solar energy reaches the furthest corners of the world and places where it is most needed. And there will be inevitable trade-offs between solar energy and other uses for the same land, including conservation and biodiversity, agriculture and food systems, and community and indigenous uses.

Colleagues and I have now published in the journal Nature the first global inventory (https://www.nature.com/articles/s41586-021-03957-7) of large solar energy generating facilities. “Large” in this case refers to facilities that generate at least 10 kilowatts when the sun is at its peak. (A typical small residential rooftop installation has a capacity of around 5 kilowatts).

We built a machine learning system to detect these facilities in satellite imagery and then deployed the system on over 550 terabytes of imagery using several human lifetimes of computing.

(https://i.imgur.com/atcN1kN.jpg)
A map of all the large solar facilities detected up to 2018 (lighter colours = more recent) Kruitwagen et al, Nature

We searched almost half of Earth’s land surface area, filtering out remote areas far from human populations. In total we detected 68,661 solar facilities. Using the area of these facilities, and controlling for the uncertainty in our machine learning system, we obtain a global estimate of 423 gigawatts of installed generating capacity at the end of 2018. This is very close to the International Renewable Energy Agency’s (IRENA) estimate (https://www.irena.org/publications/2019/Jul/Renewable-energy-statistics-2019) of 420 GW for the same period.

Tracking the growth of solar energy
Our study shows solar PV generating capacity grew by a remarkable 81% between 2016 and 2018, the period for which we had timestamped imagery. Growth was led particularly by increases in India (184%), Turkey (143%), China (120%) and Japan (119%).

Facilities ranged in size from sprawling gigawatt-scale desert installations in Chile, South Africa, India and north-west China, through to commercial and industrial rooftop installations in California and Germany, rural patchwork installations in North Carolina and England, and urban patchwork installations in South Korea and Japan.

(https://i.imgur.com/VUjeCdU.jpg)
Solar mixed with rice fields on reclaimed land in South Korea. Stock for you / shutterstock

The advantages of facility-level data
Country-level aggregates of our dataset are very close to IRENA’s country-level statistics (https://www.irena.org/publications/2019/Jul/Renewable-energy-statistics-2019), which are collected from questionnaires, country officials, and industry associations. Compared to other facility-level datasets, we address some critical coverage gaps, particularly in developing countries, where the diffusion of solar PV is critical for expanding electricity access while reducing greenhouse gas emissions. In developed and developing countries alike, our data provides a common benchmark unbiased by reporting from companies or governments.

Geospatially-localised data is of critical importance to the energy transition. Grid operators and electricity market participants need to know precisely where solar facilities are in order to know accurately the amount of energy they are generating or will generate. Emerging in-situ or remote systems (https://www.turing.ac.uk/research/research-projects/solar-nowcasting-machine-vision) are able to use location data to predict increased or decreased generation caused by, for example, passing clouds or changes in the weather.

This increased predictability allows solar to reach higher proportions of the energy mix (https://www.sciencedirect.com/science/article/abs/pii/S0960148115302901). As solar becomes more predictable, grid operators will need to keep fewer fossil fuel power plants in reserve, and fewer penalties for over- or under-generation will mean more marginal projects will be unlocked.

Using the back catalogue of satellite imagery, we were able to estimate installation dates for 30% of the facilities. Data like this allows us to study the precise conditions which are leading to the diffusion of solar energy, and will help governments better design subsidies to encourage faster growth.

(https://i.imgur.com/vcCm7H0.jpg)
The authors compared the locations of the solar facilities to data on land use, to find out what was there before. Cropland (light brown) was easily the most common. Kruitwagen et al, Nature

Knowing where a facility is also allows us to study the unintended consequences of the growth of solar energy generation. In our study, we found that solar power plants are most often in agricultural areas, followed by grasslands and deserts.

This highlights the need to carefully consider the impact that a ten-fold expansion of solar PV generating capacity will have in the coming decades on food systems, biodiversity, and lands used by vulnerable populations. Policymakers can provide incentives to instead install solar generation on rooftops which cause less land-use competition, or other renewable energy options.
Saludos.
Título: Re:STEM
Publicado por: senslev en Diciembre 10, 2021, 15:34:53 pm
Request: Puede algún experto del foro indicar recursos para aprender cloud computing. Algo serio pero empezando por lo básico. Gracias de antemano.

He encontrado esto, voy a ver.

https://www.edx.org/course/introduction-to-cloud-infrastructure-technologies (https://www.edx.org/course/introduction-to-cloud-infrastructure-technologies)

https://www.coursera.org/learn/cloud-computing-foundations-duke (https://www.coursera.org/learn/cloud-computing-foundations-duke)

Otros dos:

https://www.coursera.org/learn/microsoft-azure-cloud-services (https://www.coursera.org/learn/microsoft-azure-cloud-services)

https://www.coursera.org/specializations/aws-fundamentals?skipBrowseRedirect=true (https://www.coursera.org/specializations/aws-fundamentals?skipBrowseRedirect=true)
Título: Re:STEM
Publicado por: py en Diciembre 10, 2021, 20:08:34 pm
Request: Puede algún experto del foro indicar recursos para aprender cloud computing. Algo serio pero empezando por lo básico. Gracias de antemano.

He encontrado esto, voy a ver.

https://www.edx.org/course/introduction-to-cloud-infrastructure-technologies (https://www.edx.org/course/introduction-to-cloud-infrastructure-technologies)

https://www.coursera.org/learn/cloud-computing-foundations-duke (https://www.coursera.org/learn/cloud-computing-foundations-duke)
Vaya por delante que no me dedico a las TI, antes de las comerciales "nubes" estan los cluster de toda la vida, a diferentes escalas y propositos, desde un pequeño cluster (ie: raspberrys pi) hasta los top 500 de supercomputadoras, tienes el lado hardware (arquitectura de las redes y el almacenamiento) y por otro el software (un servidor es el jefe parte y distribuye el trabajo entre los demas), y luego cada empresa del ramo puede tener sus frameworks de desarrollo.
Título: Re:STEM
Publicado por: Cadavre Exquis en Diciembre 11, 2021, 21:16:14 pm
https://www.expansion.com/empresas/distribucion/2021/12/10/61b27604e5fdeae2438b45c7.html (https://www.expansion.com/empresas/distribucion/2021/12/10/61b27604e5fdeae2438b45c7.html)

(https://i.imgur.com/QQGT9qY.png)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 02, 2022, 22:17:40 pm
Citar
DeepMind says its new AI coding engine is as good as an average human programmer (https://www.theverge.com/2022/2/2/22914085/alphacode-ai-coding-program-automatic-deepmind-codeforce)
AlphaCode is good, but not great — not yet
By James Vincent  Feb 2, 2022, 11:00am EST

(https://i.imgur.com/PvMTW6S.png)
Illustration by Alex Castro / The Verge

DeepMind has created an AI system named AlphaCode (https://deepmind.com/blog/article/Competitive-programming-with-AlphaCode) that it says “writes computer programs at a competitive level.” The Alphabet subsidiary tested its system against coding challenges used in human competitions and found that its program achieved an “estimated rank” placing it within the top 54 percent of human coders. The result is a significant step forward for autonomous coding, says DeepMind, though AlphaCode’s skills are not necessarily representative of the sort of programming tasks faced by the average coder.

Oriol Vinyals, principal research scientist at DeepMind, told The Verge over email that the research was still in the early stages but that the results brought the company closer to creating a flexible problem-solving AI — a program that can autonomously tackle coding challenges that are currently the domain of humans only. “In the longer-term, we’re excited by [AlphaCode’s] potential for helping programmers and non-programmers write code, improving productivity or creating new ways of making software,” said Vinyals.

AlphaCode was tested against challenges curated by Codeforces (https://codeforces.com/), a competitive coding platform that shares weekly problems and issues rankings for coders similar to the Elo rating system used in chess. These challenges are different from the sort of tasks a coder might face while making, say, a commercial app. They’re more self-contained and require a wider knowledge of both algorithms and theoretical concepts in computer science. Think of them as very specialized puzzles that combine logic, maths, and coding expertise.

In one example challenge (https://codeforces.com/problemset/problem/1553/D) that AlphaCode was tested on, competitors are asked to find a way to convert one string of random, repeated s and t letters into another string of the same letters using a limited set of inputs. Competitors cannot, for example, just type new letters but instead have to use a “backspace” command that deletes several letters in the original string. You can read a full description of the challenge below:

(https://i.imgur.com/hXjY3uc.png)
An example challenge titled “Backspace” that was used to evaluate DeepMind’s program. The problem is of medium difficulty, with the left side showing the problem description, and the right side showing example test cases. | Image: DeepMind / Codeforces

Ten of these challenges were fed into AlphaCode in exactly the same format they’re given to humans. AlphaCode then generated a larger number of possible answers and winnowed these down by running the code and checking the output just as a human competitor might. “The whole process is automatic, without human selection of the best samples,” Yujia Li and David Choi, co-leads of the AlphaCode paper, told The Verge over email.

AlphaCode was tested on 10 of challenges that had been tackled by 5,000 users on the Codeforces site. On average, it ranked within the top 54.3 percent of responses, and DeepMind estimates that this gives the system a Codeforces Elo of 1238, which places it within the top 28 percent of users who have competed on the site in the last six months.

“I can safely say the results of AlphaCode exceeded my expectations,” Codeforces founder Mike Mirzayanov said in a statement shared by DeepMind. “I was sceptical [sic] because even in simple competitive problems it is often required not only to implement the algorithm, but also (and this is the most difficult part) to invent it. AlphaCode managed to perform at the level of a promising new competitor.”

(https://i.imgur.com/dc5kqsY.png)
An example interface of AlphaCode tackling a coding challenge. The input is given as it is to humans on the left and the output generated on the right. | Image: DeepMind

DeepMind notes that AlphaCode’s current skill set is only currently applicable within the domain of competitive programming but that its abilities open the door to creating future tools that make programming more accessible and one day fully automated.

Many other companies are working on similar applications. For example, Microsoft and the AI lab OpenAI have adapted the latter’s language-generating program GPT-3 to function as an autocomplete program (https://www.theverge.com/2021/5/25/22451144/microsoft-gpt-3-openai-coding-autocomplete-powerapps-power-fx) that finishes strings of code. (Like GPT-3, AlphaCode is also based on an AI architecture known as a transformer, which is particularly adept at parsing sequential text, both natural language and code). For the end user, these systems work just like Gmails’ Smart Compose feature — suggesting ways to finish whatever you’re writing.

A lot of progress has been made developing AI coding systems in recent years, but these systems are far from ready to just take over the work of human programmers. The code they produce is often buggy, and because the systems are usually trained on libraries of public code, they sometimes reproduce material that is copyrighted.

In one study (https://arxiv.org/abs/2108.09293) of an AI programming tool named Copilot developed by code repository GitHub, researchers found that around 40 percent of its output contained security vulnerabilities. Security analysts have even suggested (https://www.wired.com/story/ai-write-code-like-humans-bugs/) that bad actors could intentionally write and share code with hidden backdoors online, which then might be used to train AI programs that would insert these errors into future programs.

Challenges like these mean that AI coding systems will likely be integrated slowly into the work of programmers — starting as assistants whose suggestions are treated with suspicion before they are trusted to carry out work on their own. In other words: they have an apprenticeship to carry out. But so far, these programs are learning fast.
Saludos.
Título: Re:STEM
Publicado por: wanderer en Febrero 03, 2022, 11:42:45 am
No sé muy dónde poner esto, que viene a desmitificar el concepto de "nativos digitales":

Citar
Los "nativos digitales" son un mito: la generación Z no es mejor en tecnología ni en la multitarea
https://magnet.xataka.com/en-diez-minutos/nativos-digitales-mito-generacion-z-no-mejor-tecnologia-multitarea (https://magnet.xataka.com/en-diez-minutos/nativos-digitales-mito-generacion-z-no-mejor-tecnologia-multitarea)
[...]
De hecho, muchos aún necesitan capacitación tecnológica. Aunque las generaciones más jóvenes usan sus móviles y ordenadores a menudo para tareas escolares o con fines sociales, es posible que no tengan las habilidades necesarias para carreras basadas en tecnología como informática, ingenierías o marketing. Los estudiantes a menudo tienen una alta confianza digital pero una baja competencia digital.

Por ejemplo, un nativo digital puede saber cómo usar las redes para las interacciones sociales pero no para producir contenido para una empresa. "Necesitamos alejarnos de este fetiche de insistir en nombrar a esta generación la Generación Digital/Net/Google porque esos términos no los describen y tienen el potencial de evitar que este grupo de estudiantes alcance el crecimiento personal al asumir que ya han crecido en áreas en las que claramente no lo han hecho", afirmaba Apostolos Koutropoulous en 2011 en una revisión del término "nativo digital".
Título: Re:STEM
Publicado por: Saturio en Febrero 03, 2022, 13:53:49 pm
No sé muy dónde poner esto, que viene a desmitificar el concepto de "nativos digitales":

Citar
Los "nativos digitales" son un mito: la generación Z no es mejor en tecnología ni en la multitarea
https://magnet.xataka.com/en-diez-minutos/nativos-digitales-mito-generacion-z-no-mejor-tecnologia-multitarea (https://magnet.xataka.com/en-diez-minutos/nativos-digitales-mito-generacion-z-no-mejor-tecnologia-multitarea)
[...]
De hecho, muchos aún necesitan capacitación tecnológica. Aunque las generaciones más jóvenes usan sus móviles y ordenadores a menudo para tareas escolares o con fines sociales, es posible que no tengan las habilidades necesarias para carreras basadas en tecnología como informática, ingenierías o marketing. Los estudiantes a menudo tienen una alta confianza digital pero una baja competencia digital.

Por ejemplo, un nativo digital puede saber cómo usar las redes para las interacciones sociales pero no para producir contenido para una empresa. "Necesitamos alejarnos de este fetiche de insistir en nombrar a esta generación la Generación Digital/Net/Google porque esos términos no los describen y tienen el potencial de evitar que este grupo de estudiantes alcance el crecimiento personal al asumir que ya han crecido en áreas en las que claramente no lo han hecho", afirmaba Apostolos Koutropoulous en 2011 en una revisión del término "nativo digital".

Es que vendría a ser como que alguien que ve mucho la televisión sabe como funciona técnicamente o sabe como es es el negocio televisivo o la producción de televisión.

Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 04, 2022, 21:38:40 pm
En relación con el tema de los "nativos digitales", creo que es obligatorio hacer referencia al libro "Los nativos digitales no existen (https://nativosdigitales.com/)", co-escrito por 16 autores coordinados por Susana Lluna y Javier Pedreira «Wicho»(*).

(https://i.imgur.com/uJujlxg.jpg)

El libro, publicado bajo licencia Creative Commons, vio la luz el 24 de enero de 2017 (https://www.microsiervos.com/archivo/libros/nativos-digitales-no-existen-ya-en-librerias.html) y tanto Susana Lluna como como Javier Pedreira han dado innumerables charlas sobre la idea que en él exponen.

(https://i.imgur.com/KHHc3xu.jpg) (https://www.youtube.com/watch?v=q1Yd5ZXBllQ)
Mi animal mitológico favorito: los nativos digitales | Javier Pedreira (Wicho) | TEDxGalicia (https://www.youtube.com/watch?v=q1Yd5ZXBllQ)

Y, efectivamente, que los niños de la generación Z hayan nacido en un mundo en el que ya existían los ordenadores no les hace ser competentes con las nuevas tecnologías igual que una persona que haya nacido en un mundo en el que existiesen los coches no los convierte en automáticamente en conductores.

Saludos.

(*) Para el que no lo conozoca, Javier Pedreira, alias «Wicho», es uno de los tres fundadores de Microsiervos (https://www.microsiervos.com/), uno de los primeros blogs que se crearon en España y que, a día de hoy, casi 20 años después, sigue fiel a sus principios y manteniendo el espíritu  con el que se fundó (https://www.microsiervos.com/archivo/general/acerca-de-microsiervos.html), todo un logro en el mundo digital.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 07, 2022, 20:39:39 pm
Citar
New lightweight material is stronger than steel (https://news.mit.edu/2022/polymer-lightweight-material-2d-0202)
The new substance is the result of a feat thought to be impossible: polymerizing a material in two dimensions.

Anne Trafton | MIT News Office | February 2, 2022

(https://i.imgur.com/QsNhEF8.jpg)

Using a novel polymerization process, MIT chemical engineers have created a new material that is stronger than steel and as light as plastic, and can be easily manufactured in large quantities.

The new material is a two-dimensional polymer that self-assembles into sheets, unlike all other polymers, which form one-dimensional, spaghetti-like chains. Until now, scientists had believed it was impossible to induce polymers to form 2D sheets.

Such a material could be used as a lightweight, durable coating for car parts or cell phones, or as a building material for bridges or other structures, says Michael Strano, the Carbon P. Dubbs Professor of Chemical Engineering at MIT and the senior author of the new study.

“We don’t usually think of plastics as being something that you could use to support a building, but with this material, you can enable new things,” he says. “It has very unusual properties and we’re very excited about that.”

The researchers have filed for two patents on the process they used to generate the material, which they describe in a paper appearing today in Nature. MIT postdoc Yuwen Zeng is the lead author of the study.

Two dimensions

Polymers, which include all plastics, consist of chains of building blocks called monomers. These chains grow by adding new molecules onto their ends. Once formed, polymers can be shaped into three-dimensional objects, such as water bottles, using injection molding.

Polymer scientists have long hypothesized that if polymers could be induced to grow into a two-dimensional sheet, they should form extremely strong, lightweight materials. However, many decades of work in this field led to the conclusion that it was impossible to create such sheets. One reason for this was that if just one monomer rotates up or down, out of the plane of the growing sheet, the material will begin expanding in three dimensions and the sheet-like structure will be lost.

However, in the new study, Strano and his colleagues came up with a new polymerization process that allows them to generate a two-dimensional sheet called a polyaramide. For the monomer building blocks, they use a compound called melamine, which contains a ring of carbon and nitrogen atoms. Under the right conditions, these monomers can grow in two dimensions, forming disks. These disks stack on top of each other, held together by hydrogen bonds between the layers, which make the structure very stable and strong.

“Instead of making a spaghetti-like molecule, we can make a sheet-like molecular plane, where we get molecules to hook themselves together in two dimensions,” Strano says. “This mechanism happens spontaneously in solution, and after we synthesize the material, we can easily spin-coat thin films that are extraordinarily strong.”

Because the material self-assembles in solution, it can be made in large quantities by simply increasing the quantity of the starting materials. The researchers showed that they could coat surfaces with films of the material, which they call 2DPA-1.

“With this advance, we have planar molecules that are going to be much easier to fashion into a very strong, but extremely thin material,” Strano says.

Light but strong

The researchers found that the new material’s elastic modulus — a measure of how much force it takes to deform a material — is between four and six times greater than that of bulletproof glass. They also found that its yield strength, or how much force it takes to break the material, is twice that of steel, even though the material has only about one-sixth the density of steel.

Matthew Tirrell, dean of the Pritzker School of Molecular Engineering at the University of Chicago, says that the new technique “embodies some very creative chemistry to make these bonded 2D polymers.”

“An important aspect of these new polymers is that they are readily processable in solution, which will facilitate numerous new applications where high strength to weight ratio is important, such as new composite or diffusion barrier materials,” says Tirrell, who was not involved in the study.

Another key feature of 2DPA-1 is that it is impermeable to gases. While other polymers are made from coiled chains with gaps that allow gases to seep through, the new material is made from monomers that lock together like LEGOs, and molecules cannot get between them.

“This could allow us to create ultrathin coatings that can completely prevent water or gases from getting through,” Strano says. “This kind of barrier coating could be used to protect metal in cars and other vehicles, or steel structures.”

Strano and his students are now studying in more detail how this particular polymer is able to form 2D sheets, and they are experimenting with changing its molecular makeup to create other types of novel materials.

The research was funded by the Center for Enhanced Nanofluidic Transport (CENT) an Energy Frontier Research Center sponsored by the U.S. Department of Energy Office of Science, and the Army Research Laboratory.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 07, 2022, 20:42:18 pm
Citar
Scientists Just Created Magnetic 'Seeds' To Heat Up and Kill Cancer (https://science.slashdot.org/story/22/02/03/001230/scientists-just-created-magnetic-seeds-to-heat-up-and-kill-cancer)
Posted by BeauHD on Thursday February 03, 2022 @02:00AM from the remote-controlled dept.

A group of researchers at University College London (UCL) have used an MRI scanner to guide a tiny magnetic "seed" through the brain to heat and destroy cancer cells (https://interestingengineering.com/scientists-just-created-magnetic-seeds-to-heat-up-and-kill-cancer). Interesting Engineering reports:
Citar
The novel breakthrough cancer therapy, which has been tested on mice, is called "minimally invasive image-guided ablation," or MINIMA, according to the study published in Advanced Science (https://onlinelibrary.wiley.com/doi/10.1002/advs.202105333). It consists of ferromagnetic thermoseeds, which are basically 2mm metal spheres, that are guided to a tumor using magnetic propulsion generated by an MRI scanner and then remotely heated to kill nearby cancer cells. If this technique translates to humans, it could help to combat difficult-to-reach brain tumors by establishing "proof-of-concept" for precise treatment of cancers like glioblastoma, the most common form of brain cancer, and prostate, which could benefit from less invasive therapies.

The UCL researchers demonstrated the three major components of MINIMA to a high level of accuracy: precise seed imaging, navigation through brain tissue using a customized MRI system (tracked to within 0.3 mm accuracy), and eradicating the tumor in a mouse model by heating it. The researchers used an MRI machine to direct 2mm diameter metal spheres, which were implanted superficially into the tissue, then navigated to the tumors. Then, they were heated to destroy the cells.
"Using an MRI scanner to deliver a therapy in this way allows the therapeutic seed and the tumor to be imaged throughout the procedure, ensuring the treatment is delivered with precision and without having to perform open surgery," explained lead author Rebecca Baker at the UCL Centre for Advanced Biomedical Imaging, in a press release (https://www.ucl.ac.uk/news/2022/feb/magnetic-seeds-used-heat-and-kill-cancer). "This could be beneficial to patients by reducing recovery times and minimizing the chance of side effects."
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 07, 2022, 20:44:48 pm
Citar
Scientists Engineer New Material That Can Absorb and Release Enormous Amounts of Energy ([url]https://science.slashdot.org/story/22/02/02/2347219/scientists-engineer-new-material-that-can-absorb-and-release-enormous-amounts-of-energy[/url])
Posted by BeauHD on Wednesday February 02, 2022 @10:30PM from the high-tech-rubber-band dept.

An anonymous reader quotes a report from Phys.Org:
Citar
A team of researchers from the University of Massachusetts Amherst recently announced in the Proceedings of the National Academy of Sciences ([url]http://dx.doi.org/10.1073/pnas.2118161119[/url]) that they had engineered a new rubber-like solid substance that has surprising qualities. It can absorb and release very large quantities of energy ([url]https://phys.org/news/2022-02-scientists-material-absorb-enormous-amounts.html[/url]). And it is programmable. Taken together, this new material holds great promise for a very wide array of applications, from enabling robots to have more power without using additional energy, to new helmets and protective materials that can dissipate energy much more quickly.

"Imagine a rubber band," says Alfred Crosby, professor of polymer science and engineering at UMass Amherst and the paper's senior author. "You pull it back, and when you let it go, it flies across the room. Now imagine a super rubber band. When you stretch it past a certain point, you activate extra energy stored in the material. When you let this rubber band go, it flies for a mile." This hypothetical rubber band is made out of a new metamaterial -- a substance engineered to have a property not found in naturally occurring materials -- that combines an elastic, rubber-like substance with tiny magnets embedded in it. This new "elasto-magnetic" material takes advantage of a physical property known as a phase shift to greatly amplify the amount of energy the material can release or absorb.

A phase shift occurs when a material moves from one state to another: think of water turning into steam or liquid concrete hardening into a sidewalk. Whenever a material shifts its phase, energy is either released or absorbed. And phase shifts aren't just limited to changes between liquid, solid and gaseous states -- a shift can occur from one solid phase to another. A phase shift that releases energy can be harnessed as a power source, but getting enough energy has always been the difficult part. "To amplify energy release or absorption, you have to engineer a new structure at the molecular or even atomic level," says Crosby. However, this is challenging to do and even more difficult to do in a predictable way. But by using metamaterials, Crosby says that "we have overcome these challenges, and have not only made new materials, but also developed the design algorithms that allow these materials to be programmed with specific responses, making them predictable."
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 12, 2022, 11:40:38 am
Aunque se trata de un primer vídeo en el que solo se hace un análisis superficial de lo que es AlphaCode y como funciona, creo que es aún así es interesante puesto que, como comenta Carlos Santana Vega al final del vídeo, esta es solo la primera iteración de AlphaCode (recordemos (https://www.transicionestructural.net/index.php?topic=2550.msg188579#msg188579) el salto que hubo en lo que a resolver el problema del plegado de proteinas se refiere, en tan solo dos años, el tiempo que transcurrió entre la publicación de AlphaFold y AlphaFold 2 (https://en.wikipedia.org/wiki/AlphaFold#Algorithm)).

(https://i.imgur.com/lZHsYSc.jpg) (https://www.youtube.com/watch?v=AO6ID_xoqq4)
(http://¡La Evolución de las IAs que APRENDEN A PROGRAMAR! | (AlphaCode)) (https://www.youtube.com/watch?v=AO6ID_xoqq4)
Saludos.

P.D. AlphaFold ha sido clasificado como "Breaktrhrough of the year (https://www.science.org/content/article/breakthrough-2021)" y "Method of the year (https://www.nature.com/nmeth/volumes/19/issues/1)" por Science Magazine y Nature Methods para el año 2021:

(https://i.imgur.com/kMd3tud.jpg)
Título: Re:STEM
Publicado por: wanderer en Febrero 16, 2022, 19:44:46 pm
Desmitificando el poder de los algoritmos:

Citar
Los algoritmos no son tan listos como cree… pero tampoco se confíe
No trabajan mejor que los humanos ni son una amenaza para la democracia, pero están progresando y sería una imprudencia dejar las manos libres a quienes los desarrollan

https://theobjective.com/economia/2022-02-02/algoritmos-amenaza/ (https://theobjective.com/economia/2022-02-02/algoritmos-amenaza/)

Y la famosa conducción autónoma, manifiestamente mejorable:

Citar
Tesla tiene un problema grave con su piloto automático
Los usuarios y analistas de Tesla están alarmados ante lo que parece un auténtico fracaso del nuevo piloto automático de los coches de Elon Musk: nadie sabe qué está pasando

https://www.elconfidencial.com/tecnologia/novaceno/2022-02-16/tesla-piloto-automatico-elon-musk_3376506/ (https://www.elconfidencial.com/tecnologia/novaceno/2022-02-16/tesla-piloto-automatico-elon-musk_3376506/)
Título: Re:STEM
Publicado por: Saturio en Febrero 16, 2022, 23:30:27 pm
Desmitificando el poder de los algoritmos:

Citar
Los algoritmos no son tan listos como cree… pero tampoco se confíe
No trabajan mejor que los humanos ni son una amenaza para la democracia, pero están progresando y sería una imprudencia dejar las manos libres a quienes los desarrollan

[url]https://theobjective.com/economia/2022-02-02/algoritmos-amenaza/[/url] ([url]https://theobjective.com/economia/2022-02-02/algoritmos-amenaza/[/url])


Y la famosa conducción autónoma, manifiestamente mejorable:

Citar
Tesla tiene un problema grave con su piloto automático
Los usuarios y analistas de Tesla están alarmados ante lo que parece un auténtico fracaso del nuevo piloto automático de los coches de Elon Musk: nadie sabe qué está pasando

[url]https://www.elconfidencial.com/tecnologia/novaceno/2022-02-16/tesla-piloto-automatico-elon-musk_3376506/[/url] ([url]https://www.elconfidencial.com/tecnologia/novaceno/2022-02-16/tesla-piloto-automatico-elon-musk_3376506/[/url])



No, Tesla no tiene un problema con el piloto automático. Lo que tiene es un problema con su marketing.

-Tesla dice, por un lado y de forma oficial que el FSD es una "feature" en Beta. Pero por otro lado te la cobra. Exactamente cuesta 12.000 dólares pero hay suscripción mensual creo que por 199 dólares.

-FSD significa Full Self-Driving pero a la vez Tesla dice que no es un Full Self-Driving. Y hace al conductor responsable de lo que pase (además de tenerle totalmente monitorizado mientras que el conductor no tiene ni idea de lo que el coche está haciendo ni tiene posibilidad de saberlo).

-Es falso que Tesla no haga publicidad. Hay canales de youtube que son publicidad puesto que sus dueños están "afiliados":https://youtu.be/f2fu5pCSH38] [url]https://youtu.be/f2fu5pCSH38 (http://[url)[/url] Esta es una práctica de marketing en la que las autoridades tendrían que meter mano. Es esta gente la que se dedica en sus canales de Youtube a decir que el FSD es un "autopilot".
Tesla, oficialmente, sólo es "culpable" de ponerle un nombre confuso y de cobrarlo a precio de oro. Los que hacen la publicidad no son oficialmente Tesla y por lo tanto Tesla no es responsable de lo que digan.

-Musk en sus comparecencias y presentaciones "solo habla de futuro". Si te compras en un Tesla en el futuro cercano tendrás un coche que se pagará solo y que incluso te dará dinero porque lo podrás subir a la flota de robotaxis y sacar de media 30.000 dólares al año. Eso lo dijo por primera vez en abril de 2019.

El FSD hace lo que hace. El problema de Tesla no es técnico porque técnicamente la cosa es muy chula. El coche prácticamente se conduce solo en lo que sería el equivalente de una carretera nacional o autovía. Y en carreteras un poco más complejas lo hace muy bien y sólo se empana un poco en las intersecciones.

Otra cuestión es que esa cosa chula es una mierda en términos de producto y precio y en términos de esfuerzo de venta es muy falta de ética. No es un producto comercializable porque aunque funcione bastante bien no es perfecto ni en las mejores condiciones y si al final eres el responsable, estás obligado a supervisarlo en todo momento. En condiciones difíciles (y no mucho) directamente no funciona. Cuesta 12.000 dólares y además se promociona de forma engañosa.

--------

Sobre Waymo. LLevan años y años de pruebas y parece que su opción será poner el coche a funcionar en áreas restringidas (ya veremos cómo de restringidas) que el sistema tendrá aprendidas. Además cuando un coche se empane un conductor remoto tomará el control del coche. Posiblemente cuando tu taxi de waymo se acerque o pase por un punto conflictivo o una zona que no tenga bien aprendida, habrá un conductor remoto.
La idea me parece más interesante que los robotaxis de Tesla propiedad de particulares.
Imaginemos una flota de 200 taxis autónomos que se tienen aprendido el centro de Madrid de forma centralizada. La flota sabe donde están los puntos complicados y puede contar con un conductor remoto cada 4 o 5 vehículos (y esto se puede ir refinando) para pasar los puntos conflictivos o tomar el control del coche cuando éste se empane.
Lo que no sé y si los costes de esto serían amortizables por mucho ahorro de conductores que se hiciera.

Título: Re:STEM
Publicado por: Mad Men en Febrero 17, 2022, 09:17:28 am
Sí y no.

Estos sistemas aprenden a base de experiencia de los usuarios, es decir, recabando información. Cuando más se use mejor se moverá, aunque si quieres ir a la finca rústica pues el aparato no sabe por dónde tirar, porque no tiene memorizado el camino de tierra.

Como asistente a la conducción es genial. ¿Han probado algún coche con asistentes a la conducción? Mejoran mucho la comodidad y seguridad. No solo porque tome curvas, más o menos cerradas. También porque avisa de ángulos muertos, mantiene distancia de seguridad, varia la velocidad según los límites y la congestión...

Si lo que quieres es que te lleve a la finca del abuelo para hacer una barbacoa y que durante el trayecto duermas la siesta pues sí, aún falta.

Por lo demás tampoco tiene demasiado misterio, una mezcla de cámaras y radares que mapean el entorno.

Lo que impresiona de los competidores de Tesla es que aún no hayan sacado nada comparable a algún Model.

Y lo del autopiloto es verdad que es una estrategia de márqueting genial de Tesla porque directamente ellos no lo dicen, lo dicen los demás.
Título: Re:STEM
Publicado por: sudden and sharp en Febrero 17, 2022, 15:17:24 pm
(https://i.redd.it/g17inmqafei81.jpg)








[ Mein Gott! ]
Título: Re:STEM
Publicado por: Saturio en Febrero 17, 2022, 16:14:20 pm
Sí y no.

Estos sistemas aprenden a base de experiencia de los usuarios, es decir, recabando información. Cuando más se use mejor se moverá, aunque si quieres ir a la finca rústica pues el aparato no sabe por dónde tirar, porque no tiene memorizado el camino de tierra.


Pero ese no es el problema. Los problemas no vienen tanto de no identificar el entorno (sobre todo la parte fija) sino de "encontrar el camino". Lo cual es un poco sorprendente porque parecería que el algoritmo de "encontrar el camino" estaría totalmente dominado.

Podemos ver cómo un Model3 identifica perfectamente una rotonda (o eso parece según lo que se ve en la pantalla) y de repente va e intenta cruzar la isla central por el centro. Identifica claramente cómo es una calle e identifica claramente a una furgo aparcada a un lado y aun coche aparcado al otro y se empana porque no sabe cómo hacer el pequeño slalom para sortear los dos vehículos.
En otro caso vemos como identifica claramente un semáforo en rojo y se lo salta.

Da la impresión de que el sistema identifica sin problemas los entornos fijos y los objetos grandes estáticos y otros vehículos pero falla al decidir qué hacer.

Efectivamente, aprender como es el entorno fijo es lo más fácil. Si esta calle tiene dos carriles o uno o si en esa señal de límite de velocidad pone 25 o 28. Pero insisto, al girar en una esquina va y decide irse por el carril del tranvía. O en una carretera totalmente normal va y ocupa el carril de giro a la izquierda en lugar de mantenerse por el carril principal.

Parece que el problema es encontrar el camino y no el no ver lo que está pasando. LLega a un cruce de dos calles que tiene 4 pasos de cebra uno es cruzado por un par de peatones, en otro hay uno, otros peatones parece que van por la acera acercándose a otro y una bici adelanta alegremente y se pone a circular por la intersección, el coche ve todo eso (que en realidad es muy poco para un conductor humano) y se queda empanado como si fuese un octogenario confundido.

Comerse un bolardo puese ser cuestión de no saber que estaba ahí y si de verdad se lo aprende después de chocar, podría ser que el siguiente Tesla lo evitase. Pero el 90% de los fallos que se ven en los vídeos no parecen derivados de no conocer el entorno.

En una ocasión sencillamente no ve a un peatón que va a empezar a cruzar un paso de cebra, el conductor se tiene que disculpar. En otro caso se empeña en incorporarse a una vía en la que hay una continuidad de vehículos de todo tipo circulando en ambos sentidos.

En otro vídeo se pone a circular a 54 millas por hora en una calle limitada a 25. El conductor vuelve a pasar otro día o quizás a otra hora y el coche vuelve a hacer lo mismo.

Título: Re:STEM
Publicado por: sudden and sharp en Febrero 17, 2022, 17:01:09 pm
[...] En otro vídeo se pone a circular a 54 millas por hora en una calle limitada a 25. El conductor vuelve a pasar otro día o quizás a otra hora y el coche vuelve a hacer lo mismo.

Ni idea del asunto... pero, aparentemente, no es un problema de toma de decisiones; sino más bien, de cómo marcar según que decisión como incorrecta.

Tal vez, si esos otros vehiculos, con el claxon, digamos, le hicieran ver que no, que no se empeñe... que no fue buena idea... que se lo "grabe" en la AI, que no... No sé, un poco como las AIs que juegan al ajedrez. Mate, chata... prueba otra cosa la "proxima " vez.

Ir mejorando... vaya. (Tal vez sea mucho pedir... pero un disco duro grande, la nube... qué se yo...)






[ Por incordiar un poco, sorry. ]
Título: Re:STEM
Publicado por: puede ser en Febrero 18, 2022, 01:28:23 am
[...] En otro vídeo se pone a circular a 54 millas por hora en una calle limitada a 25. El conductor vuelve a pasar otro día o quizás a otra hora y el coche vuelve a hacer lo mismo.

Ni idea del asunto... pero, aparentemente, no es un problema de toma de decisiones; sino más bien, de cómo marcar según que decisión como incorrecta.

Tal vez, si esos otros vehiculos, con el claxon, digamos, le hicieran ver que no, que no se empeñe... que no fue buena idea... que se lo "grabe" en la AI, que no... No sé, un poco como las AIs que juegan al ajedrez. Mate, chata... prueba otra cosa la "proxima " vez.

Ir mejorando... vaya. (Tal vez sea mucho pedir... pero un disco duro grande, la nube... qué se yo...)

[ Por incordiar un poco, sorry. ]
Como aprenda de lo que hacemos los humanos mal vamos. Acabaría tocando el claxon cuando gana el Real Madrid, picándose con los malotes... Ya pasó hace años con un bot que se volvió racista y faltón en un foro  :facepalm:
Título: Re:STEM
Publicado por: sudden and sharp en Febrero 18, 2022, 11:15:18 am
Hay sonidos diferentes... y hay "frequencias" de sonido. Hay...
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 19, 2022, 10:49:56 am
Programar sin programar, un caso práctico:

(https://i.imgur.com/NvR5w75.jpg) (https://www.youtube.com/watch?v=FQqwynsDs7A)
¿Puede una Inteligencia Artificial PROGRAMAR el WORDLE desde cero? (https://www.youtube.com/watch?v=FQqwynsDs7A)

Y sí, el código generado es absolutamente inmantenible, pero la tecnología se encuentra ya en ese punto en el que permite que cualquiera pueda empezar a automatizar ciertas tareas sencillas simplemente dándole ordenes verbales a la Alexa o Siri de turno.

Saludos.
Título: Re:STEM
Publicado por: pollo en Febrero 21, 2022, 15:03:02 pm
El problema es el esperable con técnicas de este tipo.

Para los que no sepan por encima de qué va esto, es muy sencillo entender el funcionamiento básico.

En lugar de coger a un señor que piense en el problema y programe un algoritmo (secuencia de instrucciones y decisiones prefijadas que resuelven una tarea o problema), estas técnicas lo que hacen es ir aproximando cada vez más una función matemática cuyo resultado es equivalente a lo que resuelve ese algoritmo.
Para ello se necesitan, por un lado, datos sobre lo que se está haciendo en cada ejemplo a resolver, y por otro lado, algo que determine si se ha resuelto correctamente o no.

Lo que hace el programa entonces, es que para cada intento de resolver el problema, se prueba con una decisión o decisiones aleatorias o semialeatorias. Si el resultado es positivo, refuerza ciertos valores en la función matemática, y si es negativo, pues refuerza otros. A lo largo de miles, millones o billones de iteraciones, se entiende que la función estará tan afinada que será capaz de resolver el problema sin haber tenido nadie que haya pensado en la solución concreta, sólo a base de muchos intentos y su correspondiente feedback.

En realidad lo que se está haciendo es resolver un problema mediante fuerza bruta (intentar calcular todas las posibilidades de un problema) y averiguar una función matemática que dé el mismo resultado (o uno muy similar) al que daría esta aproximación por fuerza bruta, pero sin tener que calcular nada porque ya está implícito en tal función (ya se ha hecho antes el esfuerzo de calcular, lo que se llama "entrenamiento").

Lo que ha ocurrido en los últimos años son dos cosas: por un lado, la potencia necesaria para aplicar este tipo de fuerza bruta ya existe (antiguamente no se podía) y se ha descubierto que dos algoritmos de este tipo pueden entrenar el uno al otro: uno es el que intenta resolver el problema y otro el que intenta evaluar el resultado. En juegos además se puede utilizar un programa para enfrentarse al otro, con lo que ambos programas (jugador y rival) van aprendiendo el uno del otro.
Los resultados son mucho mejores que los que había antiguamente.

¿Cuál es el problema entonces?

El primer problema es que por la naturaleza del método empleado, el resultado de esa aproximación que resuelve el problema, es una caja negra. Es decir, no es posible saber por qué el programa resuelve lo que resuelve ni cómo lo hace, ya que no hay un proceso lógico como tal, sino una función matemática que no quiere decir nada a priori. Al contrario de un programa hecho por una persona, en el que hay partes concretas con una intención y función concreta, y una estructura explícita.

Es como intentar saber lo que está pensando una persona mirando el encefalograma. No hay forma de interpretarlo y además es diferente para cada persona y situación. Además, esta solución no es generalizable ni tampoco se puede transmitir (sólo en algunos casos, de formas limitadas y siguiendo procedimientos concretos).

El segundo problema es que no hay manera de garantizar que la función resultante haga lo que tenga que hacer para todos los casos. En problemas como jugar al ajedrez o al go, se tiene una información total sobre el estado del juego, y además todas las jugadas posibles, aunque sean números titánicos, son acotados y enumerables.
Sin embargo en problemas abiertos (como la conducción), las variables no están acotadas, las situaciones no son predecibles, no hay información total sobre el problema y además este problema no es determinístico como el ajedrez (dada una situación, debe ser totalmente determiable el resultado y ser siempre el mismo). Nunca se puede garantizar que para cualquier conjunto de entradas en el sistema, habrá una respuesta satisfactoria para resolver el problema. Digamos que la función matemática resultante podría (o no) tener puntos ciegos, en los cuales no haya sido entrenado correctamente. De hecho esto se ha demostrado, siendo posible buscar inputs que confundan a la red neuronal dando resultados incorrectos o absurdos.

Además de este tipo de erorres, se añade además los posibles errores de hardware: sensores que fallan o están averiados, circunstancias adversas (congelaciones, barro, etc.) que pueden causar que los sensores proporcionen información incorrecta, etc.

El resultado neto es que en la práctica hay una tasa de fallos en estos algoritmos, imposible de saber a priori, y que puede matar a alguien en el momento menos pensado, por cualquier tontería no prevista en el entrenamiento. Es imposible saber si hay estos errores y cuáles pueden ser. A lo máximo que se puede aspirar es a testear a lo bestia todas las posibilidades que se nos ocurran. Eso en sí es una tarea titánica. Idealmente se debería recurrir a testear en circunstancias reales, pero la mayor parte se hace en simuladores. Lo que ocurre es que los simuladores en teoría son tan reales como la realidad, pero esto es ser demasiado optimista.

La cuestión está bastante clara: si el algoritmo se equivoca, se va a equivocar sin tener en cuenta las consecuencias. En el ejemplo del primer accidente serio que tuvo un Tesla, se determinó que el coche "creyó" que donde había un camión blanco, la IA determinó que no había nada, con lo cual el coche maniobró chocando de lleno con el camión que tenía en el carril de al lado.

Una persona puede equivocarse, pero si está consciente y no quiere suicidarse, sus errores por lo general serán graduales y no serán por decisiones absurdas in situ. Puede reaccionar despacio, equivocarse al hacer una maniobra, etc. pero no va a confundir un camión con un hueco en la carretera.

El problema con el entrenamiento de estos algoritmos es bien visible: según se van entrenando más y más, los beneficios son cada vez menores, y se llega a un límite asintótico en el que no es posible garantizar la fiabilidad en determinadas circunstancias extremas. Estas circunstancias, extendidas a lo largo de millones de conductores a diario en el mundo, me atrevería a decir que son mucho más frecuentes de lo que se estima por intuición.

Mi previsión es que estos algoritmos no se equivocarán en lo que se equivocan los humanos: no se duermen, no se cansan, calculan correctamente velocidades, adelantamientos, etc., pero en contrapartida se van a equivocar en cosas de cajón que un humano jamás se equivocaría, y directamente no podrán reaccionar en determinadas circunstancias que requieren una interpretación cultural o aprendida de la realidad, debiendo delegar en el conductor sí o sí (el ejemplo más sencillo es apartarse cuando viene un vehículo en circunstancias especiales de emergencia en una situación no estandarizada, o interpretar carteles ad-hoc en obras o señales de un policía). Para esto no hay solución de momento, y creo que va a tardar mucho en haberla.

No se crean el hype, el problema no está resuelto hasta que no se resuelva el 100%. Con el 90% no sirve, ni con el 95%, ni con el 99%.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 27, 2022, 21:31:02 pm
Un anticipo de lo que se nos viene en el ámbito de las fake news...

(https://i.imgur.com/99XCe2z.jpg) (https://www.youtube.com/watch?v=gSmnrXqHpiI)
MI CLON ARTIFICIAL y el *extraño* Futuro Sintético (https://www.youtube.com/watch?v=gSmnrXqHpiI)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 22, 2022, 18:32:57 pm
Hace un par de horas Jensen Huang (el CEO de NVIDIA) ha presentado la Keynote de la primera Nvidia GTC (https://en.wikipedia.org/wiki/Nvidia_GTC) de este año (habrá otra en noviembre), en la que ha presentado las novedades en las que han estado trabajando estos útimos meses.

(https://i.imgur.com/4bgxBhe.jpg) (https://www.youtube.com/watch?v=39ubNuxnrK8)
GTC 2022 Keynote with NVIDIA CEO Jensen Huang (https://www.youtube.com/watch?v=39ubNuxnrK8)

Como siempre, merece la pena echarle un ojo.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Mayo 19, 2022, 19:31:22 pm
Citar
Solar-Powered Desalination Device Wins MIT $100K Competition (https://hardware.slashdot.org/story/22/05/18/2310217/solar-powered-desalination-device-wins-mit-100k-competition)
Posted by BeauHD on Wednesday May 18, 2022 @10:02PM from the only-the-beginning dept.

The winner of this year's MIT $100K Entrepreneurship Competition is commercializing a new water desalination technology. (https://news.mit.edu/2022/100k-competition-nona-0516) MIT News reports:
Citar
Nona Desalination says it has developed a device capable of producing enough drinking water for 10 people at half the cost and with 1/10th the power of other water desalination devices. The device is roughly the size and weight of a case of bottled water and is powered by a small solar panel. The traditional approach for water desalination relies on a power-intensive process called reverse osmosis. In contrast, Nona uses a technology developed in MIT's Research Laboratory of Electronics that removes salt and bacteria from seawater using an electrical current.

"Because we can do all this at super low pressure, we don't need the high-pressure pump [used in reverse osmosis], so we don't need a lot of electricity," says Crawford, who co-founded the company with MIT Research Scientist Junghyo Yoon. "Our device runs on less power than a cell phone charger." The company has already developed a small prototype that produces clean drinking water. With its winnings, Nona will build more prototypes to give to early customers. The company plans to sell its first units to sailors before moving into the emergency preparedness space in the U.S., which it estimates to be a $5 billion industry. From there, it hopes to scale globally to help with disaster relief. The technology could also possibly be used for hydrogen production, oil and gas separation, and more.
Saludos.
Título: Re:STEM
Publicado por: wanderer en Mayo 24, 2022, 21:25:12 pm
John Deere y los problemas de querer convertir en una tecnológica a una de las principales proveedoras de maquinaria agrícola:

Citar

Llega la guerra del 'software' rural
John Deere es el tractor que todo agricultor quería, hasta que se pasaron de modernos
La marca de maquinaria agrícola lidera un cambio en el sector hacia la computarización. ¿El problema? Muchos agricultores creen que les están dejando atrás

https://www.elconfidencial.com/tecnologia/2022-05-24/maquinaria-agricola-tractores-john-deere-software_3427344/ (https://www.elconfidencial.com/tecnologia/2022-05-24/maquinaria-agricola-tractores-john-deere-software_3427344/)
Título: Re:STEM
Publicado por: Cadavre Exquis en Junio 19, 2022, 20:12:04 pm
Un Princesa de Asturias más que merecidísimo para los que, sin lugar a dudas, podrían considerarse los padres de la IA.

(https://i.imgur.com/5Oj1qRl.png)
https://twitter.com/DotCSV/status/1537013873965993984 (https://twitter.com/DotCSV/status/1537013873965993984)

Citar
Geoffrey Hinton, Yann LeCun, Yoshua Bengio y Demis Hassabis, Premio Princesa de Asturias de Investigación Científica y Técnica (https://www.fpa.es/es/geoffrey-hinton-yann-lecun-yoshua-bengio-y-demis-hassabis-premio-princesa-de-asturias-de-investigacion-cientifica-y-tecnica.html)
Los científicos expertos en inteligencia artificial Geoffrey Hinton (canadiense y británico), Yann LeCun (francés y estadounidense), Yoshua Bengio (canadiense) y Demis Hassabis (británico) han sido galardonados con el Premio Princesa de Asturias de Investigación Científica y Técnica 2022, según ha hecho público hoy el jurado encargado de su concesión

Premios Princesa de Asturias 15/06/2022

(https://i.imgur.com/vdqYBIb.jpg)
@FPA

Los científicos expertos en inteligencia artificial Geoffrey Hinton (canadiense y británico), Yann LeCun (francés y estadounidense), Yoshua Bengio (canadiense) y Demis Hassabis (británico) han sido galardonados con el Premio Princesa de Asturias de Investigación Científica y Técnica 2022, según ha hecho público hoy el jurado encargado de su concesión.

El jurado de este Premio –convocado por la Fundación Princesa de Asturias— estuvo presidido por Pedro Miguel Echenique Landiríbar e integrado por Juan Luis Arsuaga Ferreras, César Cernuda Rego, Juan Ignacio Cirac Lascuráin, Avelino Corma Canós, Elena García Armada, Jerónimo López Martínez, Sir Salvador Moncada, Concepción Alicia Monje Micharet, Ginés Morata Pérez, Inés Rodríguez Hidalgo, María Teresa Telleria Jorge, María Paz Zorzano Mier y Manuel Toharia Cortés (secretario).

Esta candidatura ha sido propuesta por Bart Selman, presidente de la Asociación para el Desarrollo de la Inteligencia Artificial de la Universidad Cornell (Estados Unidos).

Geoffrey Hinton, Yann LeCun y Yoshua Bengio son considerados los padres de una técnica esencial de la inteligencia artificial, el deep learning o aprendizaje profundo, el cual se basa en el uso de redes neuronales para el reconocimiento de voz, la visión por ordenador y el procesamiento del lenguaje natural, y ha logrado avances en campos tan diversos como la percepción de objetos y la traducción automática. Estas redes neuronales pretenden imitar el funcionamiento del cerebro humano, utilizando algoritmos que convierten el proceso biológico del aprendizaje en secuencias matemáticas. Se trata de que la máquina aprenda de su propia experiencia. En 1986, Hinton inventó los algoritmos de retropropagación, fundamentales para el entrenamiento de redes neuronales. Con ellos, en 2012 consiguió crear una red neuronal convolucional llamada AlexNet, compuesta por 650 000 neuronas y entrenada con 1,2 millones de imágenes, que registró tan solo un 26 % de errores en el reconocimiento de objetos y redujo a la mitad el porcentaje de sistemas anteriores. Ha aportado otras contribuciones a las redes neuronales artificiales y su entrenamiento, como la cocreación de la máquina de Boltzmann, la máquina de Helmholtz y el llamado producto de expertos. En 2021 publicó en la plataforma de preprints arXiv un documento en el que presentó GLOM, un innovador proyecto, aún teórico, que supone un nuevo modelo vectorial para procesar y representar la información visual en una red neuronal, que aún está en fase de desarrollo. Por su parte, Yann LeCun hizo aportaciones al desarrollo de los algoritmos de retropropagación que Hinton había inventado y en 1989 creó LeNet-5, un sistema de reconocimiento de caracteres escritos en cheques bancarios, que supuso un gran avance para la tecnología de reconocimiento óptico de caracteres. Posteriormente, contribuyó al desarrollo de la tecnología DjVu, de compresión de imágenes, utilizada por cientos de sitios web y millones de usuarios para acceder a documentos escaneados en internet. También ha trabajado en métodos de aprendizaje profundo para el reconocimiento de documentos, la interacción humano-computadora y el reconocimiento de voz.

A su vez, Bengio ha hecho contribuciones clave en modelos probabilísticos de secuencias, utilizados para el reconocimiento de voz y de escritura y en aprendizaje no supervisado. Actualmente, estudia algoritmos más eficientes en representaciones de datos, extrayendo reconocimiento de patrones y también permitiendo el entendimiento de relaciones más complejas y conceptos de alto nivel. Demis Hassabis es CEO y cofundador de DeepMind, una de las mayores compañías de investigación en inteligencia artificial del mundo, creada en 2011 y adquirida en 2014 por Google (Premio Príncipe de Asturias de Comunicación y Humanidades 2008). Hassabis ha creado con DeepMind un modelo de red neuronal que combina las capacidades de una red neuronal artificial con la potencia algorítmica de un ordenador programable. La compañía de Hassabis ha unido los progresos hechos en machine learning con los procesos de deep learning y el llamado aprendizaje de refuerzo para crear un nuevo campo de aprendizaje por refuerzo profundo, un sistema de inteligencia artificial que abre la puerta a múltiples aplicaciones en el estudio de numerosas disciplinas científicas. En 2021 el equipo de DeepMind logró predecir, con un grado muy elevado de exactitud, la estructura de más de 350 000 proteínas humanas (el 44 % de todas las conocidas). Los datos fueron puestos a disposición de todos los laboratorios del mundo en el AlphaFold Protein Structure Database y el logro fue destacado por la revista Science (Premio Príncipe de Asturias de Comunicación y Humanidades 2007) como Descubrimiento Científico de ese año. Edith Heard, directora del Laboratorio Europeo de Biología Molecular, declaró que el logro era «una auténtica revolución para las ciencias de la vida, como lo fue la genómica hace décadas». Hinton, LeCun y Bengio fueron reconocidos en 2018 con el Premio Turing que concede la Association for Computing Machinery.

Geoffrey Hinton (Londres, Reino Unido, 6 de diciembre de 1947) se graduó en Psicología Experimental en la Universidad de Cambridge en 1970 y se doctoró en Inteligencia Artificial por la Universidad de Edimburgo en 1975. Trabajó, entre otras, en las universidades de Sussex (Reino Unido), California en San Diego y Carnegie-Mellon (Estados Unidos) y en la de Toronto (Canadá). Entre 1998 y 2001 puso en marcha la Unidad Gatsby de Neurociencia Computacional de la Universidad de Londres. Posteriormente regresó a la Universidad de Toronto, donde en la actualidad es catedrático emérito en el Departamento de Ciencias de la Computación. Desde 2013, colabora con Google en el desarrollo de aplicaciones de deep learning como vicepresidente, y es Asesor Científico Principal en el Vector Institute de Canadá. Es autor o coautor de más de trescientas publicaciones, acumula 572 982 citas y tiene un índice h de 169, según Google Scholar. Hinton es miembro de la Royal Society (Premio Príncipe de Asturias de Comunicación y Humanidades 2011), del Reino Unido y de Canadá, y de la Asociación para el Avance de la Inteligencia Artificial (de ámbito internacional). Además, es miembro honorario de la Academia de las Artes y las Ciencias y la Academia Nacional de Ingeniería, ambas de Estados Unidos. Companion de la Orden de Canadá y doctor honoris causa por las universidades de Edimburgo, Sussex y Sherbrooke, ha recibido, entre otros reconocimientos, el Premio David E. Rumelhart (EE. UU., 2001), el Premio a la Investigación de Excelencia de la International Joint Conferences on Artificial Intelligence Organization (2005), la Medalla de Oro Gerhard Herzberg del Consejo de Investigación de Ciencias Naturales e Ingeniería de Canadá (2010), el Premio NEC C&C (Japón, 2016) y la Medalla James Clerk Maxwell que concede el Institute of Electrical and Electronics Engineers (IEEE), la Real Sociedad de Edimburgo (2016), el Premio BBVA Fronteras del Conocimiento (2017) y el citado Premio Turing.

Yann LeCun (Soisy-sous-Montmorency, Francia, 8 de julio de 1960) se graduó en Ingeniería Eléctrica en la Escuela Superior de Ingenieros en Electrotécnica y Electrónica de París en 1983 y se doctoró en Ciencias de la Computación por la Universidad Pierre et Marie Curie (París) en 1987. Después de un postdoctorado en la Universidad de Toronto, en el grupo de Geoffrey Hinton, se unió a AT&T Bell Laboratories en 1988, donde se convirtió en jefe del Departamento de Investigación de Procesamiento de Imágenes en 1996. En 2003 fue contratado como profesor en la Universidad de Nueva York, después de un breve periodo como miembro del NEC Research Institute en Princeton (Nueva Jersey). Es director de investigación de inteligencia artificial en Facebook y mantiene su actividad académica en la Universidad de Nueva York, vinculado al Center for Data Science (que fundó y dirigió entre 2012 y 2014) y al Courant Institute of Mathematical Science. Es miembro del comité asesor del Instituto de Matemáticas Puras y Aplicadas y del Instituto de Investigación Computacional y Experimental en Matemáticas (ICERM). LeCun es autor o coautor de más de trescientas publicaciones, que acumulan 248 571 citas, y tiene un índice h de 135, según Google Scholar. Es miembro de la Academia Nacional de Ingeniería de EE. UU. y ha recibido numerosos premios, como el IEEE Neural Network Pioneer Award (2014), el de Investigador Distinguido IEEE PAMI (2015) y el Pender de la Universidad de Pensilvania (2018), además del Premio Turing mencionado anteriormente. Cuenta con doctorados honoris causa del Instituto Politécnico Nacional de México y de la Escuela Politécnica Federal de Lausana. Fue incluido en la lista de las cien personas influyentes globales de la revista Wired en 2016.

Yoshua Bengio (París, Francia, 5 de marzo de 1964) se graduó en Ingeniería Informática en 1986 en la Universidad McGill (Canadá), donde también cursó un máster y se doctoró en Ciencias de la Computación. Cumplió estudios postdoctorales en el Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés) y en los AT&T Bell Laboratories, junto al grupo de LeCun. Desde 1993 es profesor en el Departamento de Ciencias de la Computación e Investigación Operativa de la Universidad de Montreal. Además de ocupar la cátedra de Investigación de Canadá en Algoritmos de Aprendizaje Estadístico, es fundador y director científico de Mila, el Instituto de Inteligencia Artificial de Quebec, cofundador de la empresa emergente Element AI y asesor de varias empresas de tecnología. Es también director científico del Institut de Valorisation des Données (IVADO) y copresidente, desde 2019, del Consejo Asesor de Canadá en Inteligencia Artificial. Bengio ha publicado más de seiscientos artículos y cuenta con 532 373 citas y un índice h de 205, según Google Scholar. Oficial de la Orden de Canadá y Caballero de la Legión de Honor de Francia, es miembro de la Royal Society of Canada (2017). Ha recibido premios como el Marie-Victorin del Gobierno de Quebec (2017), la Medalla del 50.º Aniversario del Ministerio de Relaciones Internacionales de la Francofonía de Quebec (2018), el de la Asociación Canadiense de IA (2018) y el Killam y el Pionero de Redes Neuronales IEEE CIS (2019). Es autor de tres reputados libros sobre aprendizaje profundo y fue uno de los impulsores de la Declaración de Montreal para un desarrollo responsable de la inteligencia artificial.

Demis Hassabis nació en Londres (Reino Unido) el 27 de julio de 1976. Niño prodigio del ajedrez (a los trece años era ya un reconocido jugador) y apasionado de la programación, a los diecisiete se unió a la compañía Bullfrog Productions como diseñador de videojuegos, donde creó juegos de éxito como Theme Park. Estudió en la Universidad de Cambridge, en la que se graduó en 1997 en Ciencias de la Computación, y en 1998 fundó la empresa de videojuegos Elixir Studios, con la que creó proyectos para multinacionales como Microsoft o Vivendi. En 2009 se doctoró en Neurociencia Cognitiva en el University College de Londres y completó sus estudios en Harvard (EE. UU.) y el Instituto Tecnológico de Massachusetts. En 2011, con el apoyo de inversores como Elon Musk, fundó la empresa de inteligencia artificial DeepMind Technologies, con la que comenzó a crear algoritmos de aprendizaje para dominar videojuegos, como AlphaGo (que en poco tiempo logró derrotar a Lee Sedol, campeón mundial del juego de origen chino Go), AlphaZero, para progresar en el desarrollo de un sistema de aprendizaje de inteligencia artificial, considerado por algunos expertos como revolucionario, pues combina el funcionamiento neuronal humano y las conexiones entre la memoria y la imaginación con los mecanismos de aprendizaje de las máquinas. Con otra de esas variantes, AlphaFold, ha logrado, como se ha dicho, transformar el estudio de la estructura 3D de las proteínas. Tras la adquisición de DeepMind por Google, en 2014, Hassabis ha sido su director ejecutivo. Acumula 79 960 citas y tiene un índice h de 73, según Google Scholar. Comandante de la Orden del Imperio Británico, Hassabis es miembro de la Royal Society, de la Royal Academy of Engineering y de la Royal Society of Arts, todas en el Reino Unido, y ha recibido el premio Mullard de la Royal Society (2014), el premio Golden Plate de la Academy of Achievement (Reino Unido, 2017) y el Dan David (Israel, 2020).

Los Premios Princesa de Asturias están destinados, según señala su Reglamento, a galardonar “la labor científica, técnica, cultural, social y humanitaria realizada por personas, instituciones, grupo de personas o de instituciones en el ámbito internacional”. Conforme a estos principios, el Premio Princesa de Asturias de Investigación Científica y Técnica se concederá a la “labor de cultivo y perfeccionamiento de la investigación, descubrimiento y/o invención en las matemáticas, la astronomía y la astrofísica, la física, la química, las ciencias de la vida, las ciencias médicas, las ciencias de la Tierra y del espacio y las ciencias tecnológicas, así como de las disciplinas correspondientes a cada uno de dichos campos y de las técnicas relacionadas con ellas”.

En esta edición concurría al galardón de Investigación Científica y Técnica un total de 47 candidaturas de 16 nacionalidades.

Este ha sido el séptimo de los ocho Premios Princesa de Asturias que se conceden este año, en que cumplen su cuadragésima segunda edición. Anteriormente fueron otorgados el Premio Princesa de Asturias de las Artes a la cantaora Carmen Linares y a la bailarina y coreógrafa María Pagés, el de Comunicación y Humanidades al periodista polaco Adam Michnik, el de Ciencias Sociales al arqueólogo mexicano Eduardo Matos Moctezuma, el de los Deportes a la Fundación y el Equipo Olímpico de Refugiados, el de las Letras al dramaturgo Juan Mayorga y el de Cooperación Internacional a la exregatista y emprendedora social británica Ellen MacArthur. La próxima semana se fallará el Premio Princesa de Asturias de la Concordia.

El acto de entrega de los Premios Princesa de Asturias se celebrará, como es tradicional, en el mes de octubre en una solemne ceremonia presidida por Sus Majestades los Reyes de España, acompañados por Sus Altezas Reales la Princesa de Asturias y la Infanta Doña Sofía.

Cada uno de los Premios Princesa de Asturias está dotado con una escultura de Joan Miró –símbolo representativo del galardón− un diploma, una insignia y la cantidad en metálico de 50 000 euros.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 10, 2022, 19:35:44 pm
Citar
OUT OF GAS (https://www.science.org/content/article/fusion-power-may-run-fuel-even-gets-started)
A shortage of tritium fuel may leave fusion energy with an empty tank

23 jun 2022 by Daniel Clery

(https://i.imgur.com/5Kd33Z8.jpg)
The interior of the ITER fusion megareactor (artist’s concept). It will use up much of the world’s tritium. PARKER/SCIENCE SOURCE

In 2020, Canadian Nuclear Laboratories delivered five steel drums, lined with cork to absorb shocks, to the Joint European Torus (JET), a large fusion reactor in the United Kingdom. Inside each drum was a steel cylinder the size of a Coke can, holding a wisp of hydrogen gas—just 10 grams of it, or the weight of a couple sheets of paper.

This wasn’t ordinary hydrogen but its rare radioactive isotope tritium, in which two neutrons and a proton cling together in the nucleus. At $30,000 per gram, it’s almost as precious as a diamond, but for fusion researchers the price is worth paying. When tritium is combined at high temperatures with its sibling deuterium, the two gases can burn like the Sun. The reaction could provide abundant clean energy—just as soon as fusion scientists figure out how to efficiently spark it.

Last year, the Canadian tritium fueled an experiment at JET showing fusion research is approaching an important threshold: producing more energy than goes into the reactions. By getting to one-third of this breakeven point, JET offered reassurance that ITER, a similar reactor twice the size of JET under construction in France, will bust past breakeven when it begins deuterium and tritium (D-T) burns sometime next decade. “What we found matches predictions,” says Fernanda Rimini, JET’s plasma operations expert.

But that achievement could be a Pyrrhic victory, fusion scientists are realizing. ITER is expected to consume most of the world’s tritium, leaving little for reactors that come after.

Fusion advocates often boast that the fuel for their reactors will be cheap and plentiful. That is certainly true for deuterium: Roughly one in every 5000 hydrogen atoms in the oceans is deuterium, and it sells for about $13 per gram. But tritium, with a half-life of 12.3 years, exists naturally only in trace amounts in the upper atmosphere, the product of cosmic ray bombardment. Nuclear reactors also produce tiny amounts, but few harvest it.

Most fusion scientists shrug off the problem, arguing that future reactors can breed the tritium they need. The high-energy neutrons released in fusion reactions can split lithium into helium and tritium if the reactor wall is lined with the metal. Despite demand for it in electric car batteries, lithium is relatively plentiful.

But there’s a catch: In order to breed tritium you need a working fusion reactor, and there may not be enough tritium to jump-start the first generation of power plants. The world’s only commercial sources are the 19 Canada Deuterium Uranium (CANDU) nuclear reactors, which each produce about 0.5 kilograms a year as a waste product, and half are due to retire this decade. The available tritium stockpile—thought to be about 25 kilograms today—will peak before the end of the decade and begin a steady decline as it is sold off and decays, according to projections in ITER’s 2018 research plan.

Citar
The dwindling tritium supply
The few kilograms of commercially available tritium come from CANDU plants, a type of nuclear reactor in Canada and South Korea. According to ITER projections, supplies will peak this decade, then begin a steady decline that will accelerate when ITER begins burning tritium.

(https://i.imgur.com/4SJLmKt.png)
GRAPHIC: K. FRANKLIN/SCIENCE; (DATA) ITER RESEARCH PLAN WITHIN THE STAGED APPROACH, ITR-18-003, (2018)

ITER’s first experiments will use hydrogen and deuterium and produce no net energy. But once it begins energy-producing D-T shots, Alberto Loarte, head of ITER’s science division, expects the reactor to eat up to 1 kilogram of tritium annually. “It will consume a significant amount of what is available,” he says. Fusion scientists wishing to fire up reactors after that may find that ITER already drank their milkshake.

To compound the problem, some believe tritium breeding—which has never been tested in a fusion reactor—may not be up to the task. In a recent simulation, nuclear engineer Mohamed Abdou of the University of California, Los Angeles, and his colleagues found that in a best-case scenario, a power-producing reactor could only produce slightly more tritium than it needs to fuel itself. Tritium leakages or prolonged maintenance shutdowns will eat away at that narrow margin.

Scarce tritium is not the only challenge fusion faces; the field must also learn to deal with fitful operations, turbulent bursts of plasma, and neutron damage (see sidebar, below). But for Daniel Jassby, a plasma physicist retired from Princeton Plasma Physics Laboratory (PPPL) and a known critic of D-T fusion energy, the tritium issue looms large. It could be fatal for the entire enterprise, he says. “This makes deuterium-tritium fusion reactors impossible.”

IF NOT FOR CANDU reactors, D-T fusion would be an unattainable dream. “The luckiest thing to happen for fusion in the world is that CANDU reactors produce tritium as a byproduct,” Abdou says. Many nuclear reactors use ordinary water to cool the core and “moderate” the chain reaction, slowing neutrons so they are more likely to trigger fission. CANDU reactors use heavy water, in which deuterium takes the place of hydrogen, because it absorbs fewer neutrons, leaving more for fission. But occasionally, a deuterium nucleus does capture a neutron and is transformed into tritium.

If too much tritium builds up in the heavy water it can be a radiation hazard, so every so often operators send their heavy water to the utility company Ontario Power Generation (OPG) to be “detritiated.” OPG filters out the tritium and sells off about 100 grams of it a year, mostly as a medical radioisotope and for glow-in-the-dark watch dials and emergency signage. “It’s a really nice waste-to-product story,” says Ian Castillo of Canadian Nuclear Laboratories, which acts as OPG’s distributor.

Fusion reactors will add significantly to the demand. OPG Vice President Jason Van Wart expects to be shipping up to 2 kilograms annually beginning in the 2030s, when ITER and other fusion startups plan to begin burning tritium. “Our position is to extract all we can,” he says.

But the supply will decline as the CANDUs, many of them 50 years old or more, are retired. Researchers realized more than 20 years ago that fusion’s “tritium window” would eventually slam shut, and things have only got worse since then. ITER was originally meant to fire up in the early 2010s and burn D-T that same decade. But ITER’s start has been pushed back to 2025 and could slip again because of the pandemic and safety checks demanded by French nuclear regulators. ITER won’t burn D-T until 2035 at the earliest, when the tritium supply will have shriveled.

Once ITER finishes work in the 2050s, 5 kilograms or less of tritium will remain, according to the ITER projections. In a worst-case scenario, “it would appear that there is insufficient tritium to satisfy the fusion demand after ITER,” concedes Gianfranco Federici, head of fusion technology at the EuroFusion research agency.

(https://i.imgur.com/XGzSIuK.jpg)
In May, engineers began to assemble ITER’s reactor vessel. The first tritium burns are scheduled for 2035.© ITER ORGANIZATION

Some private companies are designing smaller fusion reactors that would be cheaper to build and—initially at least—use less tritium. Commonwealth Fusion Systems, a startup in Massachusetts, says it has already secured tritium supplies for its compact prototype and early demonstration reactors, which are expected to need less than 1 kilogram of the isotope during development.

But larger, publicly funded test reactors planned by China, South Korea, and the United States could need several kilograms each. Even more will be needed to start up EuroFusion’s planned successor to ITER, a monster of a machine called DEMO. Meant to be a working power plant, it is expected to be up to 50% larger than ITER, supplying 500 megawatts of electricity to the grid.

Fusion reactors generally need a large startup tritium supply because the right conditions for fusion only occur in the hottest part of the plasma of ionized gases. That means very little of the tritium in the doughnut-shaped reactor vessel, or tokamak, gets burned. Researchers expect ITER to burn less than 1% of the injected tritium; the rest will diffuse out to the edge of the tokamak and be swept into a recycling system, which removes helium and other impurities from the exhaust gas, leaving a mix of D-T. The isotopes are then separated and fed back into the reactor. This can take anywhere from hours to days.

DEMO’s designers are working on ways to reduce its startup needs. “We need to have a low tritium [starting] inventory,” says Christian Day of the Karlsruhe Institute of Technology, project leader in the design of DEMO’s fuel cycle. “If you need 20 kilograms to fill it, that’s a problem.”

One way to tame the demand is to fire frozen fuel pellets deeper into the reactor’s burning zone, where they will burn more efficiently. Another is to cut recycling time to just 20 minutes, by using metal foils as filters to strip out impurities quickly, and also by feeding the hydrogen isotopes straight back into the machine without separating them. It may not be a perfect 50-50 D-T mix, but for a working reactor it will be close enough, Day says.

But Abdou says DEMO’s appetite is still likely to be large. He and his colleagues modeled the D-T fuel cycle for power-producing reactors, including DEMO and its successors. They estimated factors, including the efficiency of burning D-T fuel, the time it takes to recycle unburnt fuel, and the fraction of time the reactor will operate. In a paper published in 2021 in Nuclear Fusion, the team concludes that DEMO alone will require between 5 kilograms and 14 kilograms of tritium to begin—more than is likely to be available when the reactor is expected to fire up in the 2050s.

EVEN IF THE DEMO team and other post-ITER reactor designers can cut their tritium needs, fusion will have no future if tritium breeding doesn’t work. According to Abdou, a commercial fusion plant producing 3 gigawatts of electricity will burn 167 kilograms of tritium per year—the output of hundreds of CANDU reactors.

The challenge for breeding is that fusion doesn’t produce enough neutrons, unlike fission, where the chain reaction releases an exponentially growing number. With fusion, each D-T reaction only produces a single neutron, which can breed a single tritium nucleus. Because breeding systems can’t catch all these neutrons, they need help from a neutron multiplier, a material that, when struck by a neutron, gives out two in return. Engineers plan to mix lithium with multiplier materials such as beryllium or lead in blankets that line the walls of the reactors.

ITER will be the first fusion reactor to experiment with breeding blankets. Tests will include liquid blankets (molten mixtures of lithium and lead) as well as solid “pebble beds” (ceramic balls containing lithium mixed with balls of beryllium). Because of cost cuts, ITER’s breeder systems will line just 4 square meters of the 600-square-meter reactor interior. Fusion reactors after ITER will need to cover as much of the surface as they possibly can to have any chance of satisfying their tritium needs.

The tritium can be extracted continuously or during scheduled shutdowns, depending on whether the lithium is in liquid or solid form, but the breeding must be relentless. The breeding blankets also have a second job: absorbing gigawatts of power from the neutrons and turning it into heat. Pipes carrying water or pressurized helium through the hot blankets will pick up the heat and produce steam that drives electricity-producing turbines. “All of this inside the environment of a fusion reactor with its ultrahigh vacuum, neutron bombardment, and high magnetic field,” says Mario Merola, head of engineering design at ITER. “It’s an engineering challenge.”

For Abdou and his colleagues, it is more than a challenge—it may well be an impossibility. Their analysis found that with current technology, largely defined by ITER, breeding blankets could, at best, produce 15% more tritium than a reactor consumes. But the study concluded the figure is more likely to be 5%—a worrisomely small margin.

One critical factor the authors identified is reactor downtime, when tritium breeding stops but the isotope continues to decay. Sustainability can only be guaranteed if the reactor runs more than 50% of the time, a virtual impossibility for an experimental reactor like ITER and difficult for prototypes such as DEMO that require downtime for tweaks to optimize performance. If existing tokamaks are any guide, Abdou says, time between failures is likely to be hours or days, and repairs will take months. He says future reactors could struggle to run more than 5% of the time.

To make breeding sustainable, operators will also need to control tritium leaks. For Jassby, this is the real killer. Tritium is notorious for permeating the metal walls of a reactor and escaping through tiny gaps. Abdou’s analysis assumed a loss rate of 0.1%. “I don’t think that’s realistic,” Jassby says. “Think of all the places tritium has to go” as it moves through the complex reactor and reprocessing system. “You can’t afford to lose any tritium.”

Two private fusion efforts have decided to simply forgo tritium fuel. TAE Technologies, a California startup, plans to use plain hydrogen and boron, whereas Washington state startup Helion will fuse deuterium and helium-3, a rare helium isotope. These reactions require higher temperatures than D-T, but the companies think that’s a price worth paying to avoid tritium hassles. “Our company’s existence owes itself to the fact that tritium is scarce and a nuisance,” says TAE CEO Michl Binderbauer.

The alternative fusion reactions have the added appeal of producing fewer or even no neutrons, which avoids the material damage and radioactivity that the D-T approach threatens. Binderbauer says the absence of neutrons should allow TAE’s reactors—which stabilize spinning rings of plasma with particle beams—to last 40 years. The challenge is temperature: Whereas D-T will fuse at 150 million degrees Celsius, hydrogen and boron require 1 billion degrees.

Helion’s fuel of deuterium and helium-3 burns at just 200 million degrees, achieved using plasma rings similar to TAE’s but compressed with magnetic fields. But helium-3, although stable, is nearly as rare and hard to acquire as tritium. Most commercial sources of it depend on the decay of tritium, typically from military stockpiles. Helion CEO David Kirtley says, however, that by putting extra deuterium in the fuel mix, his team can generate D-D fusion reactions that breed helium-3. “It’s a much lower cost system, easier to fuel, easier to operate,” he says.

(https://i.imgur.com/TNglqzA.png)
C. BICKEL/SCIENCE

Still, advocates of conventional D-T fusion believe tritium supplies could be expanded by building more fission reactors. Militaries around the world use tritium to boost the yield of nuclear weapons, and have built up their own tritium stockpiles using purpose-built or adapted commercial nuclear reactors.

The U.S. Department of Energy (DOE), for example, relies on commercial reactors—Watts Bar Units 1 and 2, operated by the Tennessee Valley Authority—in which lithium control rods have replaced some of the boron ones. The rods are occasionally removed and processed to extract tritium. DOE supplied PPPL with tritium in the 1980s and ’90s when the lab had a D-T burning reactor. But Federici doesn’t think the agency, or militaries around the world, will get into the business of selling the isotope. “Defense stockpiles of tritium are unlikely ever to be shared,” he says.

Perhaps the world could see a renaissance of the CANDU technology. South Korea has four CANDU reactors and a plant for extracting tritium but does not sell it commercially. Romania has two and is working on a tritium facility. China has a couple of CANDUs and India has built a handful of CANDU derivatives. Their tritium production could be turbocharged by adding lithium rods to their cores or doping the heavy water moderator with lithium. But a 2018 paper in Nuclear Fusion by Michael Kovari of the Culham Centre for Fusion Energy and colleagues argues such modifications would likely face regulatory barriers because they could compromise reactor safety and because of the dangers of tritium itself.

Some say fusion reactors could create their own startup tritium by running on deuterium alone. But D-D reactions are wildly inefficient at tokamak temperatures and instead of producing energy would consume huge amounts of electricity. According to Kovari’s study, D-D tritium breeding might cost $2 billion per kilogram produced. All such solutions “pose significant economic and regulatory difficulties,” Kovari says.

Throughout the decades of fusion research, plasma physicists have been single-minded about reaching the breakeven point and producing excess energy. They viewed other issues, such as acquiring enough tritium, just “trivial” engineering, Jassby says. But as reactors approach breakeven, nuclear engineers like Abdou say it’s time to start to worry about engineering details that are far from trivial. “Leaving [them] until later would be hugely mistaken.”
Saludos.
Título: Re:STEM
Publicado por: wanderer en Julio 12, 2022, 10:06:37 am
Inteligencia Artificial=Burricie Natural:

Citar
La inteligencia artificial es solo artificial
La Inteligencia Artificial actual todavía encuentra dificultades a la hora de comprender escenarios y de distinguir entre la correlación y la causalida

https://theobjective.com/sociedad/tecnologia/2022-07-11/inteligencia-artificial/ (https://theobjective.com/sociedad/tecnologia/2022-07-11/inteligencia-artificial/)
Título: Re:STEM
Publicado por: Saturio en Julio 12, 2022, 12:05:14 pm
Inteligencia Artificial=Burricie Natural:

Citar
La inteligencia artificial es solo artificial
La Inteligencia Artificial actual todavía encuentra dificultades a la hora de comprender escenarios y de distinguir entre la correlación y la causalida



Eso es porque los que la han programado tampoco.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 12, 2022, 19:36:33 pm
(https://i.imgur.com/SslIuKs.png)
https://twitter.com/alewkowycz/status/1542559176483823622

https://ai.googleblog.com/2022/06/minerva-solving-quantitative-reasoning.html

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 12, 2022, 19:45:48 pm
(https://i.imgur.com/EKFgJTO.png)
https://twitter.com/DeepMind/status/1546513417325912067 (https://twitter.com/DeepMind/status/1546513417325912067)

https://www.deepmind.com/publications/learning-intuitive-physics-through-objects (https://www.deepmind.com/publications/learning-intuitive-physics-through-objects)

https://elpais.com/tecnologia/2022-07-11/la-inteligencia-artificial-de-google-es-capaz-de-aprender-como-un-bebe.html (https://elpais.com/tecnologia/2022-07-11/la-inteligencia-artificial-de-google-es-capaz-de-aprender-como-un-bebe.html)

(https://i.imgur.com/PKDf8cS.jpg)

Saludos.
Título: Re:STEM
Publicado por: Benzino Napaloni en Julio 16, 2022, 20:32:38 pm
https://elpais.com/educacion/secundaria-bachillerato-fp/2022-07-10/la-escalada-vertiginosa-de-notas-en-bachillerato-los-sobresalientes-de-los-que-llegan-a-selectividad-se-doblan-en-seis-anos.html

(https://i.imgur.com/1b7Q6xg.jpg)

Saludos.

Como ya he comentado varias veces, yo soy profesor de Matemáticas en una universidad, y el que las notas de corte en la EBAU para el grado en Matemáticas (y también en Física y otros de ciencias) haya subido tanto, está directamente relacionado con todo eso.

Y esas notas si bien no son totalmente falsas, son irreales, y en cualquier caso, ocultan que los nuevos estudiantes aún no se han enfrentado a algo que ponga a prueba su capacidad de frustración, lo cual es de importancia fundamental para el desarrollo de la persona.

Muevo mejor aquí la cita. Tengo curiosidad por una cosa, aunque probablemente no tienes tanta experiencia como para contrastar  :roto2: .

Debió de haber un bajón tremendo con la LOGSE. Yo me libré por unos pocos años, pero pude ver algo del destrozo. En segundo de BUP ya se daba toda la trigonometría y las primeras integrales. Cuando llegábamos a selectividad ya llevábamos tres cursos haciendo integrales. Y aunque eso no nos evitó la bofetada del primer año de universidad, al menos teníamos base suficiente.

No me imagino cómo estará ahora, que sólo se hacen integrales un curso. Y sí, creo también que cosas como pelearse con una integral no inmediata es básico. Por no hablar de los exámenes de selectividad de ahora, los de matemáticas me parecen bastante asequibles.
Título: Re:STEM
Publicado por: wanderer en Julio 16, 2022, 23:17:38 pm
https://elpais.com/educacion/secundaria-bachillerato-fp/2022-07-10/la-escalada-vertiginosa-de-notas-en-bachillerato-los-sobresalientes-de-los-que-llegan-a-selectividad-se-doblan-en-seis-anos.html

(https://i.imgur.com/1b7Q6xg.jpg)

Saludos.

Como ya he comentado varias veces, yo soy profesor de Matemáticas en una universidad, y el que las notas de corte en la EBAU para el grado en Matemáticas (y también en Física y otros de ciencias) haya subido tanto, está directamente relacionado con todo eso.

Y esas notas si bien no son totalmente falsas, son irreales, y en cualquier caso, ocultan que los nuevos estudiantes aún no se han enfrentado a algo que ponga a prueba su capacidad de frustración, lo cual es de importancia fundamental para el desarrollo de la persona.

Muevo mejor aquí la cita. Tengo curiosidad por una cosa, aunque probablemente no tienes tanta experiencia como para contrastar  :roto2: .

Debió de haber un bajón tremendo con la LOGSE. Yo me libré por unos pocos años, pero pude ver algo del destrozo. En segundo de BUP ya se daba toda la trigonometría y las primeras integrales. Cuando llegábamos a selectividad ya llevábamos tres cursos haciendo integrales. Y aunque eso no nos evitó la bofetada del primer año de universidad, al menos teníamos base suficiente.

No me imagino cómo estará ahora, que sólo se hacen integrales un curso. Y sí, creo también que cosas como pelearse con una integral no inmediata es básico. Por no hablar de los exámenes de selectividad de ahora, los de matemáticas me parecen bastante asequibles.

Bueno, pues se aquilata mucho, y se hace lo que se puede, pero de todos modos, en lo que a puramente a Matemáticas se refiere, el acento está puesta mucho más en la teorización y la prueba de los teoremas más que en obtener cálculos explícitos, lo cual, por otra parte, es imposible la mayoría de las veces (del mismo modo que la Teoría de Galois explica que los polinomios de grado mayor o igual que 5 no pueden resolverse en general por radicales, una extensión de esa teoría también explica que la primitiva de una función que pueda expresarse en términos elementales en general no puede expresarse en términos elementales). El acento, en lo que vertiente aplicada de las Matemáticas se refiere, por tanto se mueve a cosas como obtener cotas, aproximaciones y demás, y eso por no mencionar que en cursos más avanzados se introduce el concepto de integral de Lebesgue, que es casi universalmente utilizado por su mucho mayor flexibilidad y mejores propiedades que la integral clásica. Desde luego, todo ello comporta un salto enorme en nivel de abstracción, aunque en las demás áreas de las Matemáticas todo eso es lo que se supone que debe dominar el egresado en esta ciencia. Como al soldado el valor se le supone, al matemático se le supone la capacidad de abstracción. Curioso que ambas cosas ahora se ven como muy políticamente incorrectas. Luego algunos se preguntarán que cómo voy por ahí presumiendo de facha, cuando más bien las izquierdas se han ocupado con un denuedo digno de mejor causa de expulsar todo aquello que pueda ser pensamiento crítico y racional... En fin, me desvarío, pero es que no lo puedo evitar.
Título: Re:STEM
Publicado por: Danny_M en Julio 17, 2022, 16:40:50 pm
Muevo mejor aquí la cita. Tengo curiosidad por una cosa, aunque probablemente no tienes tanta experiencia como para contrastar  :roto2: .

Debió de haber un bajón tremendo con la LOGSE. Yo me libré por unos pocos años, pero pude ver algo del destrozo. En segundo de BUP ya se daba toda la trigonometría y las primeras integrales. Cuando llegábamos a selectividad ya llevábamos tres cursos haciendo integrales. Y aunque eso no nos evitó la bofetada del primer año de universidad, al menos teníamos base suficiente.

No me imagino cómo estará ahora, que sólo se hacen integrales un curso. Y sí, creo también que cosas como pelearse con una integral no inmediata es básico. Por no hablar de los exámenes de selectividad de ahora, los de matemáticas me parecen bastante asequibles.

Buenas. Me ha llamado mucho la atención lo que cuentas, supongo que será porque los planes de la CCAA donde tú estudiaste eran muy diferentes a la mía, pero yo las integrales las vi en COU y no antes. En 2º BUP es que no dimos ni derivadas. Sí dimos bastante trigonometría y muchos, muchos límites (entonces nos explicaban la definición "estricta" de "para todo epsilon > 0 existe un delta tal que....", cosa que en la ESO creo que ni la han olido), con todas sus indeterminaciones 0/0, inf/inf, 1^inf, etc etc. En 3º BUP sí nos hinchamos de derivadas, y en COU tuvimos el atracón de integrales con todos sus cambios de variable y demás. Y la verdad es que creo que salimos de ahí con un nivel bastante decente, en mis apuntes de Matemáticas de COU creo que venía todo el cálculo de una variable que necesité en primero de carrera. Aunque yo creo que la asignatura STEM que más se ha resentido con la Logse ha sido la Física, que en COU era quizá la más temible y en la Logse es una más (yo me he preparado exámenes de física general de 1º de carrera con mis apuntes de COU).

Por otra parte, aunque esto es ya algo más subjetivo, recuerdo que la madurez que teníamos en COU no tenía ya nada que ver con la de la gente del actual 2º Bachillerato, y aun así en 1º de carrera te llevabas el guantazo de realidad de hacer exámenes de 4 horas estando acostumbrado a los examencitos de 1 o 1.5 horas. Me puedo imaginar que ahora lleguen a la universidad y no vean por dónde les vienen los guantazos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 17, 2022, 19:54:54 pm
Parece que la gente de BigScience Research Workshop ha terminado de entranar BLOOM, una red neuronal especializada en el procesamiento de lenguaje natural al nivel de GPT-3. La diferencia respecto a GPT-3 es que BLOOM ha sido entrenado para ser capaz de generar texto en 46 idiomas (y 13 lenguajes de programación) y, sobre todo, que cualquiera puede descargarlo y ejecutarlo en local (el modelo actualmente requiere ocho tarjetas Nvidia A100 así que, evidentemente, no va a correr en un PC, pero están trabajando para comprimirlo y que pueda ser utilizado con una configuración de hardware más razonable).

(https://i.imgur.com/LBcRo47.png)
https://twitter.com/BigscienceW/status/1546787153207853056 (https://twitter.com/BigscienceW/status/1546787153207853056)

Citar
Introducing The World’s Largest Open Multilingual Language Model: BLOOM ([url]https://bigscience.huggingface.co/blog/bloom[/url])

([url]https://i.imgur.com/aR9f19Y.png[/url])

Large language models (LLMs) have made a significant impact on AI research. These powerful, general models can take on a wide variety of new language tasks from a user’s instructions. However, academia, nonprofits and smaller companies' research labs find it difficult to create, study, or even use LLMs as only a few industrial labs with the necessary resources and exclusive rights can fully access them. Today, we release BLOOM ([url]https://huggingface.co/bigscience/bloom[/url]), the first multilingual LLM trained in complete transparency, to change this status quo — the result of the largest collaboration of AI researchers ever involved in a single research project.

With its 176 billion parameters, BLOOM is able to generate text in 46 natural languages and 13 programming languages. For almost all of them, such as Spanish, French and Arabic, BLOOM will be the first language model with over 100B parameters ever created. This is the culmination of a year of work involving over 1000 researchers from 70+ countries and 250+ institutions, leading to a final run of 117 days (March 11 - July 6) training the BLOOM model on the Jean Zay supercomputer ([url]http://www.idris.fr/eng/info/missions-eng.html[/url]) in the south of Paris, France thanks to a compute grant worth an estimated €3M from French research agencies CNRS and GENCI.

Researchers can now download, run and study BLOOM ([url]https://huggingface.co/bigscience/bloom[/url]) to investigate the performance and behavior of recently developed large language models down to their deepest internal operations. More generally, any individual or institution who agrees to the terms of the model’s Responsible AI License ([url]https://bigscience.huggingface.co/blog/the-bigscience-rail-license[/url]) (developed during the BigScience project itself) can use and build upon the model on a local machine or on a cloud provider - since it's embedded in the Hugging Face ecosystem, it's as easy as importing it with transformers and running it with accelerate. In this spirit of collaboration and continuous improvement, we’re also releasing, for the first time, the intermediary checkpoints and optimizer states of the training. Don’t have 8 A100s to play with? We're finalizing an inference API for large-scale use even without dedicated hardware or engineering. In the meantime, for quick tests, prototyping, and lower-scale use, you can already play with an early version ([url]https://huggingface.co/bigscience/bloom[/url]) on the HF hub.

([url]https://i.imgur.com/04I56FA.png[/url])

This is only the beginning. BLOOM’s capabilities will continue to improve as the workshop continues to experiment and tinker with the model. We’ve started work to make it as instructable as our earlier effort T0++ was and are slated to add more languages, compress the model into a more usable version with the same level of performance, and use it as a starting point for more complex architectures… All of the experiments researchers and practitioners have always wanted to run, starting with the power of a 100+ billion parameter model, are now possible. BLOOM is the seed of a living family of models that we intend to grow, not just a one-and-done model, and we’re ready to support community efforts to expand it.
Saludos.
Título: Re:STEM
Publicado por: Benzino Napaloni en Julio 20, 2022, 15:16:25 pm
Muevo mejor aquí la cita. Tengo curiosidad por una cosa, aunque probablemente no tienes tanta experiencia como para contrastar  :roto2: .

Debió de haber un bajón tremendo con la LOGSE. Yo me libré por unos pocos años, pero pude ver algo del destrozo. En segundo de BUP ya se daba toda la trigonometría y las primeras integrales. Cuando llegábamos a selectividad ya llevábamos tres cursos haciendo integrales. Y aunque eso no nos evitó la bofetada del primer año de universidad, al menos teníamos base suficiente.

No me imagino cómo estará ahora, que sólo se hacen integrales un curso. Y sí, creo también que cosas como pelearse con una integral no inmediata es básico. Por no hablar de los exámenes de selectividad de ahora, los de matemáticas me parecen bastante asequibles.

Buenas. Me ha llamado mucho la atención lo que cuentas, supongo que será porque los planes de la CCAA donde tú estudiaste eran muy diferentes a la mía, pero yo las integrales las vi en COU y no antes. En 2º BUP es que no dimos ni derivadas. Sí dimos bastante trigonometría y muchos, muchos límites (entonces nos explicaban la definición "estricta" de "para todo epsilon > 0 existe un delta tal que....", cosa que en la ESO creo que ni la han olido), con todas sus indeterminaciones 0/0, inf/inf, 1^inf, etc etc. En 3º BUP sí nos hinchamos de derivadas, y en COU tuvimos el atracón de integrales con todos sus cambios de variable y demás. Y la verdad es que creo que salimos de ahí con un nivel bastante decente, en mis apuntes de Matemáticas de COU creo que venía todo el cálculo de una variable que necesité en primero de carrera. Aunque yo creo que la asignatura STEM que más se ha resentido con la Logse ha sido la Física, que en COU era quizá la más temible y en la Logse es una más (yo me he preparado exámenes de física general de 1º de carrera con mis apuntes de COU).

Por otra parte, aunque esto es ya algo más subjetivo, recuerdo que la madurez que teníamos en COU no tenía ya nada que ver con la de la gente del actual 2º Bachillerato, y aun así en 1º de carrera te llevabas el guantazo de realidad de hacer exámenes de 4 horas estando acostumbrado a los examencitos de 1 o 1.5 horas. Me puedo imaginar que ahora lleguen a la universidad y no vean por dónde les vienen los guantazos.

El bachillerato LOGSE tiene mucho de comprimir de mala manera los 4 cursos de BUP y COU en sólo dos. De todos modos, sí, en 2º de BUP ya nos cascaron las primeras integrales. No las más duras, eso nos lo reservaban para COU, pero al menos así nos iba sonando todo. Los límites, las indeterminaciones, y las derivadas, ya desde ese año a cholón.

La física de COU la saqué al final bien, pero el primer trimestre nos dieron una bofetada que nos dejaron bailando, yo aprobé ahí por los pelos. En mi temario teníamos si no recuerdo mal mecánica -con cálculos de centro de masas e integrales a saco-, ondas, y como marías el efecto fotoeléctrico y la desintegración radiactiva. Al menos el susto que nos dieron al principio funcionó, y la asignatura la aprobaba casi cualquiera que se la tomase en serio.


En la universidad -Wanderer creo que lo podrá confirmar- llegaron a hacerse cursos de nivelación que con COU ni hacían falta, y al final se han resignado y han bajado el nivel igualmente.
Título: Re:STEM
Publicado por: wanderer en Julio 20, 2022, 15:43:58 pm
Bueno, más o menos es cierto lo de la bajada de nivel (en el primer curso, que en los siguientes ya no, os lo aseguro). Lo de esos cursos compensatorios, ya no se estilan.

Pero aunque ya no se producen esas masacres en 1º y 2º, ahora lo que marca la diferencia no es aprobar o no (si no apruebas, básicamente es que eres un zote y mejor dedícate a otra cosa), sino sacar una buena nota, y eso les aseguro que no se regala.
Título: Re:STEM
Publicado por: Danny_M en Julio 23, 2022, 17:45:36 pm
En los últimos días está habiendo un revuelo importante en la comunidad de biociencias, ya extendido a toda la ciencia en general, a causa de un fraude relacionado con la investigación del Alzheimer. Como quizá les suene, desde hace mucho la teoría "ortodoxa" dice que la causa del Alzheimer es la acumulación en el cerebro de un tipo de proteínas, las beta-amiloides, que acaban formando placas que impiden el funcionamiento cerebral normal. La cuestión es que desde que Alzheimer le puso nombre a la enfermedad, estaba claro que esas placas estaban presentes en los cerebros de los enfermos, pero era debatible si eran la causa o la consecuencia de la enfermedad. Con el tiempo, la teoría que decía que eran la causa se fue imponiendo. Pero ahora resulta que se acaba de descubrir que varios artículos que respaldaban esa teoría, incluyendo uno de los artículos más citados sobre el tema, contienen imágenes manipuladas:

https://www.dailykos.com/stories/2022/7/22/2111914/-Two-decades-of-Alzheimer-s-research-may-be-based-on-deliberate-fraud-that-has-cost-millions-of-lives (https://www.dailykos.com/stories/2022/7/22/2111914/-Two-decades-of-Alzheimer-s-research-may-be-based-on-deliberate-fraud-that-has-cost-millions-of-lives)

(artículo muy largo:)

https://www.science.org/content/article/potential-fabrication-research-images-threatens-key-theory-alzheimers-disease (https://www.science.org/content/article/potential-fabrication-research-images-threatens-key-theory-alzheimers-disease)

Al parecer, ahora empieza a estar claro porqué la gran mayoría de los fármacos desarrollados para tratar el Alzheimer han fracasado: iban orientados a eliminar los beta-amiloides, que ahora resulta que puede que no sean la causa de la enfermedad. La primera tragedia de esto es que se han invertido miles de millones, más el tiempo y el esfuerzo de incontables científicos, en algo que era una mentira.

La segunda tragedia es que, incluso antes de que se descubriera este fraude, ya se había visto que la teoría ortodoxa sobre el Alzheimer había barrido toda otra opinión disidente, ya que cualquiera que mantuviera una teoría alternativa acababa sin publicar y sin obtener financiación porque se daba por hecho que iba a ser un pérdida de tiempo y dinero:

(artículo muy largo también)

https://www.statnews.com/2019/06/25/alzheimers-cabal-thwarted-progress-toward-cure/ (https://www.statnews.com/2019/06/25/alzheimers-cabal-thwarted-progress-toward-cure/)

La moraleja de esto, a mi parecer, es que hay muchas cosas que cambiar en el funcionamiento de la ciencia actual, para empezar el modelo de publicación por completo y en especial el filtro de la revisión por pares. Y para seguir, el modelo de concesión de financiación basado en cómo el proyecto propuesto se ajusta a lo que el tribunal piensa sobre el tema y en cómo la idoneidad del proponente se evalúa en base a sus publicaciones.
Título: Re:STEM
Publicado por: pollo en Julio 24, 2022, 14:10:06 pm
Sí y no.

Estos sistemas aprenden a base de experiencia de los usuarios, es decir, recabando información. Cuando más se use mejor se moverá, aunque si quieres ir a la finca rústica pues el aparato no sabe por dónde tirar, porque no tiene memorizado el camino de tierra.


Pero ese no es el problema. Los problemas no vienen tanto de no identificar el entorno (sobre todo la parte fija) sino de "encontrar el camino". Lo cual es un poco sorprendente porque parecería que el algoritmo de "encontrar el camino" estaría totalmente dominado.

Podemos ver cómo un Model3 identifica perfectamente una rotonda (o eso parece según lo que se ve en la pantalla) y de repente va e intenta cruzar la isla central por el centro. Identifica claramente cómo es una calle e identifica claramente a una furgo aparcada a un lado y aun coche aparcado al otro y se empana porque no sabe cómo hacer el pequeño slalom para sortear los dos vehículos.
En otro caso vemos como identifica claramente un semáforo en rojo y se lo salta.

Da la impresión de que el sistema identifica sin problemas los entornos fijos y los objetos grandes estáticos y otros vehículos pero falla al decidir qué hacer.

Efectivamente, aprender como es el entorno fijo es lo más fácil. Si esta calle tiene dos carriles o uno o si en esa señal de límite de velocidad pone 25 o 28. Pero insisto, al girar en una esquina va y decide irse por el carril del tranvía. O en una carretera totalmente normal va y ocupa el carril de giro a la izquierda en lugar de mantenerse por el carril principal.

Parece que el problema es encontrar el camino y no el no ver lo que está pasando. LLega a un cruce de dos calles que tiene 4 pasos de cebra uno es cruzado por un par de peatones, en otro hay uno, otros peatones parece que van por la acera acercándose a otro y una bici adelanta alegremente y se pone a circular por la intersección, el coche ve todo eso (que en realidad es muy poco para un conductor humano) y se queda empanado como si fuese un octogenario confundido.

Comerse un bolardo puese ser cuestión de no saber que estaba ahí y si de verdad se lo aprende después de chocar, podría ser que el siguiente Tesla lo evitase. Pero el 90% de los fallos que se ven en los vídeos no parecen derivados de no conocer el entorno.

En una ocasión sencillamente no ve a un peatón que va a empezar a cruzar un paso de cebra, el conductor se tiene que disculpar. En otro caso se empeña en incorporarse a una vía en la que hay una continuidad de vehículos de todo tipo circulando en ambos sentidos.

En otro vídeo se pone a circular a 54 millas por hora en una calle limitada a 25. El conductor vuelve a pasar otro día o quizás a otra hora y el coche vuelve a hacer lo mismo.
La gente se confunde mucho debido a los "stunts" publicitarios que se marcan estas empresas.

La confusión viene fundamentalmente de las noticias sobre ajedrez, go, y demás juegos. Resulta que estos juegos tienen información perfecta. Siempre se sabe lo que está pasando en el juego, y hay un conjunto de reglas formales que permiten deducir de manera inequívoca lo que se puede hacer. Además, esto permite a estos programas hacer "trampa" respecto a lo que hace una persona, ya que estos programas trabajan con abstracciones de un tablero de juego.
Una persona tiene que comprender lo que es un tablero, tiene que reconocer las piezas, , aprenderse las reglas (que se le transmiten en lenguaje natural), etc. Una máquina no hace nada de esto, pero sin embargo sólo se le mide por la capacidad de calcular muchas jugadas sobre abstracciones formales en un tablero. Diría que a la máquina se la evalúa de una forma mucho más benigna que a una persona.

Pero la realidad es mucho más difícil de formalizar. Todos los problemas son de una naturaleza difusa y ambigua, y no hay unas reglas precisas y formales (en el sentido de matematizables) sobre cómo actuar. Y claro, se recurre a técnicas que son capaces de manejarse en este tipo de escenarios... con el "pequeño" problema de que estas técnicas deben ir "aprendiendo" a base de ensayo-error, con la consecuencia de que después no hay forma de comprobar que el aprendizaje ha sido correcto, excepto probar en la realidad o en una simulación. Y claro, las simulaciones, por mucho que nos vendan, son limitadas (si hacer videojuegos realistas es muy complicado y caro, una simulación lo es más aún, y ni de coña se acercará a lo que pueda pasar en la realidad en cuanto a variedad de situaciones).

Y ahí es donde el humo y los espejos fallan y se le ven las costuras al modelo. Falla el "sentido común". Los modelos formales y las idealizaciones se pasan por el arco del triunfo este "pequeño" aspecto del comportamiento, haciendo que en la práctica pequeños detalles tiren abajo por completo el funcionamiento de un sistema formal extremadamente complejo del que nadie conoce los detalles, y por tanto imposible de abarcar.
Si una persona es capaz de manejarse en un entorno cambiante, es porque desde que es un bebé (y con una capacidad cualitativa mucho mayor que un algoritmo de deep learning a juzgar por los resultados) se está enfrentando al mundo con su cuerpo y sentidos, durante años, y aprende un montón de pequeños detalles difusos y no formalizables acerca de cómo funciona la realidad.
Eso es lo que permite que una persona sana en un estado normal (no drogado, dormido o fuera de sí) nunca vaya a confundir un lago con un aparcamiento, mientras que para una IA es algo perfectamente plausible, o que ceder el paso en un cruce no siempre es la mejor opción (ya que entran un montón de factores ambiguos, de comunicación visual, normas sociales, etc.) y otro montón de situaciones totalmente obvias para una persona pero invisibles para una IA.

No se podrá hacer algo que conduzca razonablemente bien y además sepa reaccionar a imprevistos, sin que tengan en cuenta este aspecto. Y como nadie lo está teniendo en cuenta (porque además nadie sabría cómo hacerlo en este momento), todo lo que nos vendan hoy día está mucho más limitado de lo que nos quieren hacer creer, por muy impresionante que sea lo que se ha conseguido hasta ahora.
Se ha resuelto el 80% del problema (lo más fácil), pero resulta que el 20% restante es imprescindible para que tenga una utilidad relevante, y es mucho más difícil de resolver.
Título: Re:STEM
Publicado por: pollo en Julio 24, 2022, 14:18:22 pm
[...] En otro vídeo se pone a circular a 54 millas por hora en una calle limitada a 25. El conductor vuelve a pasar otro día o quizás a otra hora y el coche vuelve a hacer lo mismo.

Ni idea del asunto... pero, aparentemente, no es un problema de toma de decisiones; sino más bien, de cómo marcar según que decisión como incorrecta.

Tal vez, si esos otros vehiculos, con el claxon, digamos, le hicieran ver que no, que no se empeñe... que no fue buena idea... que se lo "grabe" en la AI, que no... No sé, un poco como las AIs que juegan al ajedrez. Mate, chata... prueba otra cosa la "proxima " vez.

Ir mejorando... vaya. (Tal vez sea mucho pedir... pero un disco duro grande, la nube... qué se yo...)

[ Por incordiar un poco, sorry. ]
Como aprenda de lo que hacemos los humanos mal vamos. Acabaría tocando el claxon cuando gana el Real Madrid, picándose con los malotes... Ya pasó hace años con un bot que se volvió racista y faltón en un foro  :facepalm:
Precisamente esto dice mucho más a favor de la inteligencia de las personas.

Independientemente de que sea gilipollas o no, la persona sabe lo que debe hacer, y aún así puede saltarse las reglas y sobrevivir porque puede pensar mucho más allá de ellas. La máquina no es capaz de hacer otra cosa porque no entiende lo que está haciendo, y por tanto no podrá adaptarse a nada que no sea lo usual. El universo cognitivo de la máquina se limita a seguir ciertas normas que ni siquiera son determinísticas y que no son conocidas por sus programadores.

Para juegos y simulaciones es suficiente. Para la realidad no.

El bot que se vuelve gilipollas no es otra cosa que el reflejo de lo que se ha encontrado, pero no puede comportarse de otra forma ni decidir comportarse de otra forma, ya que no hay noción de normas sociales, ni de una realidad sobre la que hablar. Sólo procesa lenguaje puro y duro sin un proceso cognitivo interno.
Título: Re:STEM
Publicado por: saturno en Julio 24, 2022, 14:24:08 pm

La moraleja de esto, a mi parecer, es que hay muchas cosas que cambiar en el funcionamiento de la ciencia actual, para empezar el modelo de publicación por completo y en especial el filtro de la revisión por pares.

¿y cuales son las alternativas?
Título: Re:STEM
Publicado por: Danny_M en Julio 24, 2022, 16:12:00 pm

La moraleja de esto, a mi parecer, es que hay muchas cosas que cambiar en el funcionamiento de la ciencia actual, para empezar el modelo de publicación por completo y en especial el filtro de la revisión por pares.

¿y cuales son las alternativas?

Pues sobre eso hay mucho debate, pero yo diría varias cosas:

- Las revistas científicas hace mucho ya que son contraproducentes para la ciencia en general. Se han convertido en simples extractoras de recursos. Su valor ahora mismo se resume en maquetarte el artículo para que quede bonito y organizar el peer-review. Pero si resulta que ya hay herramientas que te maquetan el paper y te lo dejan precioso (resalto que lo que más tiempo lleva, que es hacer figuras atractivas, lo hacen los autores), y el peer-review lo hacen los pares de gratis, ¿qué valor añadido pone la revista? Sólo se limitan a pasar algunos filtros básicos antiplagio para asegurarse de que no has metido copy-paste, pero no evalúan algo tan básico como que las figuras estén manipuladas (habiendo ya herramientas para ello). A cambio, cobran salvajadas por las suscripciones, y si quieres publicar el artículo en open access tienes que pagar cantidades que oscilan entre los 1.5 y los 10 keur. Sí, miles de euros para que un artículo donde la investigación se ha financiado con fondos públicos sea accesible para todo el público.

- Las revistas actuales podrían ser sustituídas por simples repositorios públicos, organizados por entes públicos. Por supuesto, esto tendría el peligro de que el sistema se volviera completamente ineficiente en términos de tiempo de gestión, etc., pero si quien lo organiza lo hace bien, en principio es perfectamente posible.

- El sistema de revisión por pares no garantiza gran cosa en términos de la calidad de los artículos. En primer lugar, es una lotería en la cual te pueden tocar revisores "amiguetes" que te dicen que toques dos o tres cosas cosméticas y p'alante, o bien te puede tocar algún enemigo acérrimo que te torpedee, o bien te puede tocar alguien que simplemente no esté capacitado para evaluar lo que haces. El resultado es que artículos perfectamente válidos acaban siendo retrasados durante meses porque el revisor 2 quiere que hagas más pruebas innecesarias, o bien que artículos que podrían salir en una buena revista acaban saliendo en otra 1 año después porque algún revisor pensó que ese paper no era lo bastante bueno para la revista X y lo torpedeó para que lo mandaran a otra revista (ver punto anterior: si no tuviéramos el absurdo sistema de "revistas punteras vs revistas normales" no pasaría esto).

- Mi apuesta es que ese sistema podría ser sustituído por un sistema de "revisión light", en el cual un artículo se manda al repositorio oficial, p. ej. "European Union Journal of Nuclear Physics", y se le hace una evaluación ligera por parte de 2/3 científicos que son o bien empleados a tiemplo completo para ello o bien reciben una compensación por artículo, en la cual se evalúa que lo que se cuenta sea técnicamente correcto y que el artículo cumpla unos mínimos de calidad formal (lenguaje, etc.). En este paso los evaluadores pueden sugerir correciones o hacer comentarios para mejorar el artículo, que los autores pueden elegir hacer o no, y hecho esto el artículo se publica *junto con los comentarios de los revisores y la respuesta de los autores*, permitiendo además posteriormente que *se puedan añadir comentarios o respuestas a ese artículo por parte del resto de la comunidad*. Es decir, mantendría unos filtros mínimos pre-publicación para garantizar un mínimo de calidad, pero la validación final de un artículo la daría la comunidad (cuyos comentarios se publican con nombre y apellidos). De esta forma evitamos el absurdo actual de que alguien cuela un paper en Nature con resultados falseados, el paper se publica porque los revisores no lo miran a fondo, y luego el paper consigue miles de citas y "crea ortodoxia" sólo porque está en Nature y no en una revista más del montón.

- Termino con una anécdota personal. Hace años mandé un artículo a una de esas revistas punteras (factor de impacto > 20). Estuvo en revisión un total de 18 meses (sí, año y medio), durante los cuales hicimos 4 rondas de comentarios de los revisores y cambios por nuestra parte (nota al margen: nos curramos tanto las revisiones que acabamos sacando otro artículo sólo con lo que iban a ser los resultados suplementarios para apoyar el paper inicial). Pues bueno, inicialmente eran 3 revisores, de los cuales contentamos a 2, mientras que el tercero se negaba en redondo a aceptar nuestra interpretación de los resultados. Ojo, no decía que tuviéramos nada mal hecho, sólo que no creía que nuestra explicación fuera correcta. Finalmente, el editor introdujo a un revisor 4 para desempatar que nos tumbó con un simple comentario técnico bastante demagogo, con otros comentarios que dejaban claro que no se había leído en profundidad todas las rondas de review-reply. Pues bien, la respuesta del editor con el rechazo final venía a decir (traducción resumida): "... entiendo que estén decepcionados por esta decisión y que en este momento discrepen con la opinión de los revisores, pero éstos son personas altamente experimentadas en este campo, y creo que si conocieran sus identidades ustedes estarían de acuerdo". O sea, que da igual que tengas razón o no porque si un pez gordo del campo dice que no es que no y punto. Y así es todo, cría fama y échate a dormir.
El epílogo de la historia es que al final sacamos el paper en otra revista, decente pero no tan puntera, tras una revisión sencilita (ver punto anterior: peer-review lottery), y hoy es mi artículo más citado. Lo más curioso es que el artículo sí que tenía un detalle que era debatible y que si alguien lo hubiera señalado nos hubiera tumbado inmediatamente, pero justo ese detalle no fue señalado por absolutamente ningún revisor de todos los que lo evaluaron.
Título: Re:STEM
Publicado por: Benzino Napaloni en Julio 24, 2022, 19:43:47 pm
Creo que el tema de las revisiones es más fácil de explicar de lo que parece. El móvil económico está ahí, por supuesto. Pero también es la cantidad de información y publicaciones que hay. Es simplemente inabarcable.

Aunque no volvería ni de broma a la vida de hace siglos, una ventaja de entonces es que al no haber tal bombardeo de publicaciones, era más fácil revisar las que había. La física de Newton necesitó décadas de revisiones y pruebas para sacarle todo el jugo. Y dos siglos enteros para comprobar que era sólo un modelo aproximado que funcionaba bien en el mundo macroscópico y fuera de situaciones relativistas.

Hoy día el bombardeo es tal, y la prisa es tal, que un error sutil puede atascarse mucho tiempo. El ejemplo del Alzheimer es el clásico caso del dilema de asumir el fiasco y empezar de nuevo, o seguir adelante para no dar por perdido todo el esfuerzo hecho hasta el momento.

Parar y contar hasta cien nos vendría muy bien en más de una situación.
Título: Re:STEM
Publicado por: Benzino Napaloni en Julio 24, 2022, 19:58:49 pm
No me entiendan mal. El futuro nos lleva por donde nos lleva y los desarrollos se producen y se producirán pero digamos que la promesa, hace 10 años estaba a 1 metro de la realidad, hace cinco ya llevaba 500 metros de ventaja, hace dos ya eran varios kilómetros y hoy son miles de kilómetros.
Hay que replegar velas y volver a reducir la distancia hasta lo razonable. Vender proyectos para la mejora de la logística interna de empresas industriales es menos guay que decir que vas a revolucionar el mundo con la fintech pero el mundo para el que trabajas y los límites de lo que puedes hacer son los que son.

Todo esto viene de un agotamiento que he comentado por aquí a menudo. El tiempo dirá si es otro peak o sólo un estancamiento temporal, pero el hecho seguro es que llevamos décadas de estancamiento tecnológico. Sí, tal como suena.

Parece increíble viendo cómo ha cambiado nuestras vidas, primero con internet y luego con los smartphones, la gestión del conocimiento, la IA, y la madre que lo parió. Pero apenas hay innovación desde la base desde hace décadas. Todas esas tecnologías, internet, las pantallas táctiles, y demás, hace mucho tiempo que existían. Faltaba dar el paso de integrarlas y hacerlas populares, cosa que sí, ha dado un salto enorme en muchas cosas de nuestras vidas. Pero sin innovaciones de base, esa integración acaba necesariamente en una etapa de madurez y de estancamiento.

Ahora que los smartphones hace diez años largos que están con nosotros, ¿cuántas novedades estamos viendo? Ya prácticamente ninguna.

El ejemplo de Uber del otro día viene al caso. Uber sólo conectó un servidor con móviles de usuarios. Había que hacerlo y fueron de los primeros, por lo que no les falta mérito. Pero a partir de ahí, todo se hace con tecnología existente. Gestión de las redes logísticas, interfaz de usuario... Todo lo que se pueda imaginar.


Por esto ahora choca que no tengamos ese futuro "chuli" que los gurús nos prometían. Era una simple inercia por la novedad de internet y los móviles que ya está agotada.

Y estos ciclos de euforia / depresión por las expectativas frustradas hace tiempo que se dan. Está por ejemplo el Adaline, que es una simple neurona artificial con un procesamiento lineal. Se llamaba Adaptive Linear Neuron cuando la IA ya tuvo su primera moda, y cuando vino su crisis y se quedó algo desprestigiada, se renombró como Adaptive Linear Element :roto2: . La informática se quiere ver como la nueva Piedra Filosofal, y no lo es. No es todopoderosa, da lo que da y hay mucho que no puede resolver. Esta pausa y (nueva) etapa de frustración es muy necesaria para bajar los humos.

Eso es muy cierto. De hecho, lo que estamos viendo desde hace ya muchos años en informática y telecomunicaciones es sólo el desarrollo, implementación masiva y popularización de tecnologías y/o conocimientos obtenidos en la primera mitad del S.XX (y hasta iría hasta la segunda mitad del S.XIX con Maxwell y su teoría del electromagnetismo); el software requirió algo más allá de la tecnología posibilitada por la teoría electromagnético, y fueron desarrollos matemáticos provinientes de la Lógica y los fundamentos de la Matemática por Kurt Gödel y su versión alternativa que proveyó Alan Turing.

La Mecánica Cuántica (también creación de la primera mitad del S.XX) ha jugado un papel esencial, pero de nuevo no es ninguna novedad. Está por ver aún si los ordenadores cuánticos son capaces de lidiar con el problema de la decoherencia de los estados cuánticos enlazados (para que los famosos qbits den el rendimiento que se espera de ellos) y eso sí podría ser una tecnología realmente disruptiva, como también la famosa energía ilimitada de fusión (dónde no sólo se necesita un reactor capaz de emitir más energía que la que se le inyecta, sino que además tal exceso energético se pueda convertir de forma viable en electricidad para que el cacharro se autosostenga).

En Biología la Biotecnología ha sido capaz de aportar grandes contribuciones, cierto, pero de nuevo su fundamento se conoce desde los tiempos de Watson y Crick (años 50 S.XX).

Las energías renovables, tampoco es que sean disruptivas precisamente, sobre todo cuando uno de sus mayores hándicaps (la posibilidad de almacenarla y usarla bajo demanda), está muy lejos de resolverse.

En fin, en su día Buzz Aldrin lo resumió magníficamente:

"Me prometisteis colonias en Marte; en cambio, recibí Facebook.":

https://blogs.elconfidencial.com/tecnologia/tribuna/2021-10-22/facebook-grandes-retos_3310726/ (https://blogs.elconfidencial.com/tecnologia/tribuna/2021-10-22/facebook-grandes-retos_3310726/)

Derivado del principal, esto también tiene su relación con lo que comentamos de las publicaciones. Demasiada presión y demasiadas prisas por sacar... no se sabe muy bien qué. Algo que resuelva nuestros problemas, pero no sabemos cómo, y a menudo ni sabemos de qué problemas hablamos. :roto2: Aunque podríamos resumirlo en que no se pare nuestro modo de vida, que inventen lo que tengan que inventar.

Las energías renovables, es decir, electricidad, siguen teniendo el mismo punto débil de siempre: el almacenamiento. Algo que los combustibles fósiles -o el uranio fisible- tienen resuelto desde la base. Por eso tenemos tren eléctrico desde hace mucho -con recorrido acotado y facilidad de transportar electricidad, sale a cuenta tender la catenaria-, pero el coche eléctrico está mucho más limitado.

De los grandes retos que se comentan de pasada en el artículo que enlaza Wanderer, el de las baterías es crucial. Una de dos, o es técnicamente posible y deberíamos mover el culo como con la vacuna del Covid -cuando hay voluntad se pueden hacer muchas cosas-, o con suerte harán falta décadas porque con las tecnologías disponibles hoy día no habrá impacto a corto plazo. En esto no hay honestidad alguna con el gran público, el transporte eléctrico no nos va a salvar de nada a corto plazo.


Pero necesitamos en cualquier caso un cambio brutal de mentalidad, que también se menciona en el artículo del Confidencial. Se tiene que acabar esta suerte de woke en la investigación, y en las tecnológicas en particular. No necesitamos más redes sociales, necesitamos investigación desde la base. Y de momento eso va para largo. En IT, por ejemplo, no sólo está el tema del peak currantes en el que no me detendré aquí. Es que se tiene que acabar esa mentalidad de taller artesanal en la que muchas pequeñas empresas tratan de hacer lo mismo, e invirtiendo en personal lo menos posible. Aquí también encajaría la planificación central de grandes proyectos que suele comentar PPCC.
Título: Re:STEM
Publicado por: wanderer en Julio 25, 2022, 10:22:06 am
El periodismo científico ante el reto de la comunicación de la incertidumbre (vamos, lo que es casi siempre la ciencia, tanto como actividad como forma de conocimiento):

https://theobjective.com/sociedad/2022-07-25/periodismo-cientifico/ (https://theobjective.com/sociedad/2022-07-25/periodismo-cientifico/)
Título: Re:STEM
Publicado por: pollo en Julio 25, 2022, 13:10:57 pm
El periodismo científico ante el reto de la comunicación de la incertidumbre (vamos, lo que es casi siempre la ciencia, tanto como actividad como forma de conocimiento):

https://theobjective.com/sociedad/2022-07-25/periodismo-cientifico/ (https://theobjective.com/sociedad/2022-07-25/periodismo-cientifico/)
Pero esto en realidad no deja de ser otra vertiente más de la infantilización de Occidente.

Hay demasiada gente circulando por ahí que piensa que la ciencia (que además la escriben con mayúscula, como si fuera la Iglesia o algo así) es magia y que básicamente es omnipotencia, cuando cualquiera que haya tenido que lidiar profesionalmente con campos tecnocientíficos sabe que todo tiene un coste y unos compromisos.

El discurso en las últimas décadas ha sido que la ciencia lo puede todo, la medicina lo puede todo, la tecnología lo puede todo, y que si no puede, es cuestión de tiempo para que pueda, no importa si va contra todos los fundamentos conocidos. De ahí que haya tanta ignorancia y tanto optimismo infundado, lo que lleva a comportamientos suicidas, tanto como individuos como como especie.

Luego te encuentras con adultos que son incapaces de aceptar que ciertas lesiones son incurables, que creen que pasar por el quirófano no tiene riesgos, que la solución a todo es cambiar de planeta o que la inmortalidad está a la vuelta de la esquina, porque ellos lo valen.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 25, 2022, 16:09:49 pm
Sobre las diferentes opciones a la hora de almacenar excedentes de electricidad, la de hacerlo en forma de energía potencial (básicamente lo mismo que se hace en las centrales hidroeléctrica reversibles (http://Central hidroeléctrica reversible)) podría ser una buena alternativa si cada granja solar o parque eólico contase con una solución similar a las que proponen Energy Vault (https://www.energyvault.com/) o de Gravitricty (https://gravitricity.com/). Evidentemente no tendrán la capacidad de una central hidroeléctrica, pero permitiría que estas centrales fotovoltáicas o eólicas pudieran suministrar energía a la red de forma má estable (e, incluso durante periodos de tiempo más o menos prolongados una vez se hubiese puesto el sol o hubiese dejado de soplar el viento).

Sé que ya ha salido el tema en ocasiones anteriores, pero en este víeo, Juan Francisco Calero comenta tanto la solución de Enegy Vault como la de Gravitricity y, al final, habla sobre lo último en ascensores (en cuanto a eficiencia se refiere, claro) que no conocía y qieme ha parecido también interesante como idea:

(https://i.imgur.com/VbMp89z.jpg) (https://www.youtube.com/watch?v=h_IMin1aFU0)
GRAVITY TOWERS: THE SIMPLE BATTERY THAT CAN REVOLUTIONIZE GREEN ENERGY (https://www.youtube.com/watch?v=h_IMin1aFU0)

Saludos.
Título: Re:STEM
Publicado por: Danny_M en Julio 26, 2022, 21:13:10 pm
Creo que el tema de las revisiones es más fácil de explicar de lo que parece. El móvil económico está ahí, por supuesto. Pero también es la cantidad de información y publicaciones que hay. Es simplemente inabarcable.

Aunque no volvería ni de broma a la vida de hace siglos, una ventaja de entonces es que al no haber tal bombardeo de publicaciones, era más fácil revisar las que había. La física de Newton necesitó décadas de revisiones y pruebas para sacarle todo el jugo. Y dos siglos enteros para comprobar que era sólo un modelo aproximado que funcionaba bien en el mundo macroscópico y fuera de situaciones relativistas.

Hoy día el bombardeo es tal, y la prisa es tal, que un error sutil puede atascarse mucho tiempo. El ejemplo del Alzheimer es el clásico caso del dilema de asumir el fiasco y empezar de nuevo, o seguir adelante para no dar por perdido todo el esfuerzo hecho hasta el momento.

Parar y contar hasta cien nos vendría muy bien en más de una situación.

Es cierto que el número de trabajos que hay hace muy difícil el revisar y replicarlos todos, pero eso afecta a una gran mayoría de artículos normalitos que pasan casi desapercibidos. Sin embargo, hay muchos otros artículos que están en revistas de primera fila y que consiguen miles de citas y que tardan mucho tiempo en ser señalados como fraudes, la mayoría de las veces con muy poca colaboración por parte de la revista, que se tienen que ver completamente acorralados para retirar un artículo. En este caso, el problema es que crea un efecto "traje nuevo del emperador" en el que los artículos de un determinado grupo adquieren presunción de veracidad, y los rivales se ven negros para que sus críticas tengan una décima parte de la notoriedad de los artículos originales.



...
En Biología la Biotecnología ha sido capaz de aportar grandes contribuciones, cierto, pero de nuevo su fundamento se conoce desde los tiempos de Watson y Crick (años 50 S.XX).
...

He visto ahora este comentario. Sobre las demás áreas que comentas estoy más o menos de acuerdo, pero en esto discrepo. Si hay un campo donde aún queda mucho por descubrir, ése es la Bioquímica, Biología Molecular y áreas asociadas, con la Biología y Medicina como áreas finales sujetas a grandes cambios. Todas éstas están poco menos que en pañales en el buen sentido.

Por comparar, por ejemplo, con la Física y las ingenierías: la determinación de la estructura de doble hélice del ADN, que podríamos comparar con la física de Newton en tanto que sienta los cimientos de la disciplina, se hace en los 1950. La PCR, que podríamos comparar con la máquina de vapor en tanto que permitió "industrializar" la disciplina (recordando que la PCR permite multiplicar exponencialmente secuencias de ADN, facilitando muchísimo el realizar miles de experimentos), se desarrolla en 1983. CRISPR-cas9, que es una técnica de edición genética cuyas aplicaciones estamos sólo comenzando a ver (*),  se desarrolló gracias a diversos descubrimientos en los 90-2000.

Con todo esto quiero decir que, mientras que la Física y similares áreas han entrado ya hace tiempo en su etapa de rendimientos decrecientes por simple antiguedad, en Biología es esperable ver muchos más avances que permitan nuevas tecnologías. El corolario de esto es que, si tuviera que predecir el futuro, creo que es más probable que veamos árboles transgénicos que metabolicen el CO2 para dar hidrocarburos (aunque no me mojo en cuanto a su eficiencia) que los reactores de fusión nuclear comercialmente viables.


(*) No sé si saben que en 2018 un científico chino, He Jiankui, admitió haber "creado" tres bebés humanos editados genéticamente que al parecer nacieron sanas (eran 3 niñas), por supuesto sin informar debidamente a los padres de las criaturas. La idea era hacerlas inmunes al VIH. Al parecer, no salió bien, pero se sabe poco del tema porque todo ocurrió en China y ya saben...
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 26, 2022, 22:00:08 pm
Hoy mismo Francisco Villatoro se ha echo eco de la noticia de que el NIF ha sido incapaz de repetir el experimento en el que anunciaron que habían logrado un nuevo record en tecnología de fusión por confinamiento inercial y que había aparecido en un artículo de la revista Nature:

(https://i.imgur.com/mOtyLS3.png)
https://twitter.com/emulenews/status/1551916240339230720

Citar
NIF no logra replicar su récord de energía de fusión por confinamiento inercial (https://francis.naukas.com/2022/07/26/nif-no-logra-replicar-su-record-de-energia-de-fusion-por-confinamiento-inercial/)
Por Francisco R. Villatoro, el 26 julio, 2022. Categoría(s): Ciencia • Nature • Noticias • Science

(https://i.imgur.com/zsueZ7w.png)

Se acaba de anunciar un duro varapalo para la energía de fusión usando tecnologías láser. A finales de enero de este año se publicó en Nature el nuevo récord de energía estimada en un experimento del reactor de fusión por confinamiento inercial NIF (National Ignition Facility): el pasado 8 de agosto de 2021 se estimó una producción de 1.35 MJ durante unos 4 nanosegundos alcanzando un valor de Q = 0.71, pues sus 192 láseres inyectan 1.9 MJ en el hohlraum (LCMF, 11 feb 2022 (https://francis.naukas.com/2022/02/11/nuevos-records-en-energia-de-fusion-por-confinamiento-inercial-en-nif-y-magnetico-en-jet/)). No se logró alcanzar Q=1, el objetivo original de NIF en 2009 era lograrlo en 2012; por simple comparación, el objetivo de ITER es alcanzar Q = 10 durante más de 10 minutos en ~2040. La gran pregunta de todos los expertos era si el hito de NIF era repetible. Se publica en Nature una noticia exclusiva: todos los intentos de repetir el hito a finales de 2021 han fracasado (como mucho se ha logrado un 50 % de la energía récord). Todos los que dudaban de la utilidad del programa civil de NIF se frotan las manos.

No hay artículo científico, así que no puedo comentar resultados científicos. NIF está situado en el LLNL (Lawrence Livermore National Laboratory) y recibe financiación de la NNSA (National Nuclear Security Administration) del DOE (Department of Energy) de los EEUU; la NNSA gestiona el armamento nuclear estadounidense, siendo el objetivo de NIF estudiar explosiones termonucleares cumpliendo con la moratoria de la prohibición de ensayos nucleares. El programa civil en energía de fusión de NIF fue calificado por muchos como un simple blanqueamiento de su programa militar. Aún así, muchos expertos tenían serias dudas sobre su utilidad real en el camino hacia la energía de fusión comercial. El nuevo fracaso de NIF nos enfrenta ante la eterna pregunta: ¿seguirá recibiendo financiación el programa de energía de fusión de NIF?

De nuevo nos encontramos a los científicos que lideran el NIF teniendo que jurar y perjurar que su programa en energía de fusión acabará siendo todo un éxito. Que tienen en la punta de los dedos la ignición con Q=1. ¿Volverán a convencer a los congresistas estadounidenses? La noticia exclusiva en Nature es Jeff Tollefson, «Exclusive: Laser-fusion facility heads back to the drawing board. US scientists evaluate their options after failing to replicate record-setting experiment from 2021,» Nature 22 Jul 2022, doi: https://doi.org/10.1038/d41586-022-02022-1 (https://doi.org/10.1038/d41586-022-02022-1).
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 29, 2022, 23:48:51 pm
https://www.elmundo.es/ciencia-y-salud/ciencia/2022/07/28/62e294a921efa0e83d8b45c8.html (https://www.elmundo.es/ciencia-y-salud/ciencia/2022/07/28/62e294a921efa0e83d8b45c8.html)

(https://i.imgur.com/Pt7zyDB.jpg)

Saludos.
Título: Re:STEM
Publicado por: pollo en Julio 30, 2022, 13:18:35 pm
https://www.elmundo.es/ciencia-y-salud/ciencia/2022/07/28/62e294a921efa0e83d8b45c8.html (https://www.elmundo.es/ciencia-y-salud/ciencia/2022/07/28/62e294a921efa0e83d8b45c8.html)

(https://i.imgur.com/Pt7zyDB.jpg)

Saludos.
Por lo visto esta técnica no sustituye a proyectos como Folding@home, sino que la complementa. Folding@home calcula el cómo se forman las moléculas, mientras que este intenta averiguar la estructura final. Por otro lado, es necesario hacer una comprobación posterior de la molécula, porque no todas tienen por qué ser correctas, pero desde luego es un paso muy grande en eficiencia a la hora de experimentar.

De todas formas existe una tendencia en la prensa de ignorar por completo el mérito de quienes han desarrollado la técnica. Uno modelo de este tipo tiene que ser hecho previamente por gente que entienda el problema a resolver, que son los que realmente hacen que el problema pueda plantearse ya de mano, y no es algo que lleve poco trabajo ni mucho menos, que aquí parece que le echas una palada de datos aleatorios a una máquina y ya está todo hecho.
Título: Re:STEM
Publicado por: wanderer en Agosto 05, 2022, 20:39:33 pm
Fracaso humillante de un algoritmo cuántico:   :roto2:

Citar
Logran romper un algoritmo de cifrado "a prueba de computadoras cuánticas" con un PC barato
Un algoritmo de cifrado que se suponía que resistiría los ataques de las computadoras más poderosas del futuro fue derribado por una máquina mucho más simple

https://es.gizmodo.com/logran-romper-un-algoritmo-de-cifrado-a-prueba-de-comp-1849365634 (https://es.gizmodo.com/logran-romper-un-algoritmo-de-cifrado-a-prueba-de-comp-1849365634)

La cara del creador de la maravilla cuántica debió ser todo un poema...  :troll:
Título: Re:STEM
Publicado por: wanderer en Agosto 05, 2022, 22:05:34 pm
https://www.elmundo.es/ciencia-y-salud/ciencia/2022/07/28/62e294a921efa0e83d8b45c8.html (https://www.elmundo.es/ciencia-y-salud/ciencia/2022/07/28/62e294a921efa0e83d8b45c8.html)

(https://i.imgur.com/Pt7zyDB.jpg)

Saludos.
Por lo visto esta técnica no sustituye a proyectos como Folding@home, sino que la complementa. Folding@home calcula el cómo se forman las moléculas, mientras que este intenta averiguar la estructura final. Por otro lado, es necesario hacer una comprobación posterior de la molécula, porque no todas tienen por qué ser correctas, pero desde luego es un paso muy grande en eficiencia a la hora de experimentar.

De todas formas existe una tendencia en la prensa de ignorar por completo el mérito de quienes han desarrollado la técnica. Uno modelo de este tipo tiene que ser hecho previamente por gente que entienda el problema a resolver, que son los que realmente hacen que el problema pueda plantearse ya de mano, y no es algo que lleve poco trabajo ni mucho menos, que aquí parece que le echas una palada de datos aleatorios a una máquina y ya está todo hecho.

Pues yo sería bastante escéptico y prudente con éstas cosas:

Citar
Is protein folding really NP-hard and how to show that?
Asked 2 years ago
Modified 5 months ago
Viewed 1k times

[...]
The hydrophobic-polar protein folding model (Ken Dill et al., 1985) stated the problem on a lattice (similar to self-avoiding walk):

Simplification significantly reduces the computational effort in handling the model, although even in this simplified scenario the protein folding problem is NP-complete.
[...]
https://cs.stackexchange.com/questions/128493/is-protein-folding-really-np-hard-and-how-to-show-that#:~:text=The%20hydrophobic%2Dpolar%20protein%20folding,folding%20problem%20is%20NP%2Dcomplete. (https://cs.stackexchange.com/questions/128493/is-protein-folding-really-np-hard-and-how-to-show-that#:~:text=The%20hydrophobic%2Dpolar%20protein%20folding,folding%20problem%20is%20NP%2Dcomplete.)

Sobre los que los problemas NP completos y los problemas NP-duros:

https://www.geeksforgeeks.org/difference-between-np-hard-and-np-complete-problem/ (https://www.geeksforgeeks.org/difference-between-np-hard-and-np-complete-problem/)

Título: Re:STEM
Publicado por: Greco en Agosto 09, 2022, 12:58:25 pm
Fracaso humillante de un algoritmo cuántico:   :roto2:

Citar
Logran romper un algoritmo de cifrado "a prueba de computadoras cuánticas" con un PC barato
Un algoritmo de cifrado que se suponía que resistiría los ataques de las computadoras más poderosas del futuro fue derribado por una máquina mucho más simple

https://es.gizmodo.com/logran-romper-un-algoritmo-de-cifrado-a-prueba-de-comp-1849365634 (https://es.gizmodo.com/logran-romper-un-algoritmo-de-cifrado-a-prueba-de-comp-1849365634)

La cara del creador de la maravilla cuántica debió ser todo un poema...  :troll:

Dice resistente a, no que el algoritmo sea cuántico.
Título: Re:STEM
Publicado por: Cadavre Exquis en Agosto 17, 2022, 06:32:40 am
https://www.pressreader.com/spain/el-pais-1a-edicion/20220816/281784222877612 (https://www.pressreader.com/spain/el-pais-1a-edicion/20220816/281784222877612)

(https://i.imgur.com/nmlO7ZV.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Agosto 25, 2022, 08:11:46 am
Citar
New Aluminum-Sulfur Battery Tech Offers Full Charging In Under a Minute (https://hardware.slashdot.org/story/22/08/24/2134218/new-aluminum-sulfur-battery-tech-offers-full-charging-in-under-a-minute)
Posted by BeauHD on Wednesday August 24, 2022 @10:02PM from the promising-it-all dept.

According to a new paper published in the journal Nature (https://www.nature.com/articles/s41586-022-04983-9), researchers at MIT describe new aluminum-sulfur batteries that are made entirely from abundant and inexpensive materials and can be charged in less than a minute (https://news.mit.edu/2022/aluminum-sulfur-battery-0824). "The new battery architecture, which uses aluminum and sulfur as its two electrode materials, with a molten salt electrolyte in between, is described today in the journal Nature, in a paper by MIT Professor Donald Sadoway, along with 15 others at MIT and in China, Canada, Kentucky, and Tennessee," reports MIT News. The caveat with this new kind of battery is that it requires a variety of molten salts that need to be "close to the boiling point of water." From the report:

Citar
In their experiments, the team showed that the battery cells could endure hundreds of cycles at exceptionally high charging rates, with a projected cost per cell of about one-sixth that of comparable lithium-ion cells. They showed that the charging rate was highly dependent on the working temperature, with 110 degrees Celsius (230 degrees Fahrenheit) showing 25 times faster rates than 25 C (77 F). Surprisingly, the molten salt the team chose as an electrolyte simply because of its low melting point turned out to have a fortuitous advantage. One of the biggest problems in battery reliability is the formation of dendrites, which are narrow spikes of metal that build up on one electrode and eventually grow across to contact the other electrode, causing a short-circuit and hampering efficiency. But this particular salt, it happens, is very good at preventing that malfunction. The chloro-aluminate salt they chose "essentially retired these runaway dendrites, while also allowing for very rapid charging," Sadoway says. "We did experiments at very high charging rates, charging in less than a minute, and we never lost cells due to dendrite shorting."

What's more, the battery requires no external heat source to maintain its operating temperature. The heat is naturally produced electrochemically by the charging and discharging of the battery. "As you charge, you generate heat, and that keeps the salt from freezing. And then, when you discharge, it also generates heat," Sadoway says. In a typical installation used for load-leveling at a solar generation facility, for example, "you'd store electricity when the sun is shining, and then you'd draw electricity after dark, and you'd do this every day. And that charge-idle-discharge-idle is enough to generate enough heat to keep the thing at temperature." This new battery formulation, he says, would be ideal for installations of about the size needed to power a single home or small to medium business, producing on the order of a few tens of kilowatt-hours of storage capacity.

For larger installations, up to utility scale of tens to hundreds of megawatt hours, other technologies might be more effective, including the liquid metal batteries Sadoway and his students developed several years ago and which formed the basis for a spinoff company called Ambri, which hopes to deliver its first products within the next year. For that invention, Sadoway was recently awarded this year's European Inventor Award. The smaller scale of the aluminum-sulfur batteries would also make them practical for uses such as electric vehicle charging stations, Sadoway says. He points out that when electric vehicles become common enough on the roads that several cars want to charge up at once, as happens today with gasoline fuel pumps, "if you try to do that with batteries and you want rapid charging, the amperages are just so high that we don't have that amount of amperage in the line that feeds the facility." So having a battery system such as this to store power and then release it quickly when needed could eliminate the need for installing expensive new power lines to serve these chargers.
"The first order of business for the company is to demonstrate that it works at scale," Sadoway says, and then subject it to a series of stress tests, including running through hundreds of charging cycles.

If you're looking for a detailed breakdown of how this new battery works, we recommend you check out Ars Technica's article here (https://arstechnica.com/science/2022/08/new-aluminum-sulfur-battery-tech-offers-full-charging-in-under-a-minute/).
Saludos.
Título: Re:STEM
Publicado por: el malo en Agosto 25, 2022, 10:39:36 am
Citar
New Aluminum-Sulfur Battery Tech Offers Full Charging In Under a Minute (https://hardware.slashdot.org/story/22/08/24/2134218/new-aluminum-sulfur-battery-tech-offers-full-charging-in-under-a-minute)
Posted by BeauHD on Wednesday August 24, 2022 @10:02PM from the promising-it-all dept.

According to a new paper published in the journal Nature (https://www.nature.com/articles/s41586-022-04983-9), researchers at MIT describe new aluminum-sulfur batteries that are made entirely from abundant and inexpensive materials and can be charged in less than a minute (https://news.mit.edu/2022/aluminum-sulfur-battery-0824). "The new battery architecture, which uses aluminum and sulfur as its two electrode materials, with a molten salt electrolyte in between, is described today in the journal Nature, in a paper by MIT Professor Donald Sadoway, along with 15 others at MIT and in China, Canada, Kentucky, and Tennessee," reports MIT News. The caveat with this new kind of battery is that it requires a variety of molten salts that need to be "close to the boiling point of water." From the report:

Citar
In their experiments, the team showed that the battery cells could endure hundreds of cycles at exceptionally high charging rates, with a projected cost per cell of about one-sixth that of comparable lithium-ion cells. They showed that the charging rate was highly dependent on the working temperature, with 110 degrees Celsius (230 degrees Fahrenheit) showing 25 times faster rates than 25 C (77 F). Surprisingly, the molten salt the team chose as an electrolyte simply because of its low melting point turned out to have a fortuitous advantage. One of the biggest problems in battery reliability is the formation of dendrites, which are narrow spikes of metal that build up on one electrode and eventually grow across to contact the other electrode, causing a short-circuit and hampering efficiency. But this particular salt, it happens, is very good at preventing that malfunction. The chloro-aluminate salt they chose "essentially retired these runaway dendrites, while also allowing for very rapid charging," Sadoway says. "We did experiments at very high charging rates, charging in less than a minute, and we never lost cells due to dendrite shorting."

What's more, the battery requires no external heat source to maintain its operating temperature. The heat is naturally produced electrochemically by the charging and discharging of the battery. "As you charge, you generate heat, and that keeps the salt from freezing. And then, when you discharge, it also generates heat," Sadoway says. In a typical installation used for load-leveling at a solar generation facility, for example, "you'd store electricity when the sun is shining, and then you'd draw electricity after dark, and you'd do this every day. And that charge-idle-discharge-idle is enough to generate enough heat to keep the thing at temperature." This new battery formulation, he says, would be ideal for installations of about the size needed to power a single home or small to medium business, producing on the order of a few tens of kilowatt-hours of storage capacity.

For larger installations, up to utility scale of tens to hundreds of megawatt hours, other technologies might be more effective, including the liquid metal batteries Sadoway and his students developed several years ago and which formed the basis for a spinoff company called Ambri, which hopes to deliver its first products within the next year. For that invention, Sadoway was recently awarded this year's European Inventor Award. The smaller scale of the aluminum-sulfur batteries would also make them practical for uses such as electric vehicle charging stations, Sadoway says. He points out that when electric vehicles become common enough on the roads that several cars want to charge up at once, as happens today with gasoline fuel pumps, "if you try to do that with batteries and you want rapid charging, the amperages are just so high that we don't have that amount of amperage in the line that feeds the facility." So having a battery system such as this to store power and then release it quickly when needed could eliminate the need for installing expensive new power lines to serve these chargers.
"The first order of business for the company is to demonstrate that it works at scale," Sadoway says, and then subject it to a series of stress tests, including running through hundreds of charging cycles.

If you're looking for a detailed breakdown of how this new battery works, we recommend you check out Ars Technica's article here (https://arstechnica.com/science/2022/08/new-aluminum-sulfur-battery-tech-offers-full-charging-in-under-a-minute/).
Saludos.

¿Ya ha llegado el momento de sacar del armario la disrupción que todos estamos esperando y que cambia el panorama energético global? Si esto es funcional y escalable solucionamos los principales problemas de las baterías de un plumazo.
Título: Re:STEM
Publicado por: Danny_M en Agosto 27, 2022, 00:16:03 am
Citar
New Aluminum-Sulfur Battery Tech Offers Full Charging In Under a Minute (https://hardware.slashdot.org/story/22/08/24/2134218/new-aluminum-sulfur-battery-tech-offers-full-charging-in-under-a-minute)
Posted by BeauHD on Wednesday August 24, 2022 @10:02PM from the promising-it-all dept.
... The caveat with this new kind of battery is that it requires a variety of molten salts that need to be "close to the boiling point of water."

¿Ya ha llegado el momento de sacar del armario la disrupción que todos estamos esperando y que cambia el panorama energético global? Si esto es funcional y escalable solucionamos los principales problemas de las baterías de un plumazo.

La negrita parece una limitación considerable. Habrá que ver si jugando con la composición consiguen eliminar ese requisito.

Ahora que se ha desatado la tormenta energética perfecta, es momento de ver cuántos de esos maravillosos avances que se prometían en miles de papers en Nature y Science firmados por superguays professors en el MIT y Stanford son útiles de verdad, y cuántos eran simple cancamusa a mayor gloria de los citation circles, el publish or perish y el negocio editorial-académico en general. Qué raro que no haya ningún fantástico ingenio con grafeno a tutiplén ya en las líneas de producción, con la de papers que se han escrito del tema.
Título: Re:STEM
Publicado por: wanderer en Agosto 31, 2022, 09:59:22 am
Matemáticas [Probabilidad, Teoría de Grafos y Computación] y fútbol; su papel en el reparto de la Champions:

https://theobjective.com/sociedad/2022-08-31/entresijos-champions-league/ (https://theobjective.com/sociedad/2022-08-31/entresijos-champions-league/)
Título: Re:STEM
Publicado por: Benzino Napaloni en Agosto 31, 2022, 11:16:41 am
Matemáticas [Probabilidad, Teoría de Grafos y Computación] y fútbol; su papel en el reparto de la Champions:

https://theobjective.com/sociedad/2022-08-31/entresijos-champions-league/ (https://theobjective.com/sociedad/2022-08-31/entresijos-champions-league/)

Citar
Los grupos se agrupan entre sí. Los cuatro primeros: A, B, C y D para que jueguen uno de los dos días, martes o miércoles, y el otro, E, F, G y H, para que jueguen el otro día. Esta es una nueva restricción que se aplica este año y solo a ciertas parejas de equipos nacionales (Figura 2).

Bueno, esto no es cierto. Este condicionante lleva la tira de años aplicándose. El Madrid y el Barcelona nunca han jugado el mismo día y a la misma hora si no les tocaba jugar directamente entre ellos.

De todos modos sigue siendo un buen ejemplo de por qué las matemáticas son tan importantes para administrar sistemas con una cierta complejidad. Un ejemplo clásico de aplicación de teoría de grafos es en el tráfico en ciudad. Programar bien o mal los semáforos es la diferencia entre que quede un tráfico razonable o formar un atasco gordo cada día.
Título: Re:STEM
Publicado por: wanderer en Agosto 31, 2022, 13:30:39 pm
Matemáticas [Probabilidad, Teoría de Grafos y Computación] y fútbol; su papel en el reparto de la Champions:

https://theobjective.com/sociedad/2022-08-31/entresijos-champions-league/ (https://theobjective.com/sociedad/2022-08-31/entresijos-champions-league/)

Citar
Los grupos se agrupan entre sí. Los cuatro primeros: A, B, C y D para que jueguen uno de los dos días, martes o miércoles, y el otro, E, F, G y H, para que jueguen el otro día. Esta es una nueva restricción que se aplica este año y solo a ciertas parejas de equipos nacionales (Figura 2).

Bueno, esto no es cierto. Este condicionante lleva la tira de años aplicándose. El Madrid y el Barcelona nunca han jugado el mismo día y a la misma hora si no les tocaba jugar directamente entre ellos.

De todos modos sigue siendo un buen ejemplo de por qué las matemáticas son tan importantes para administrar sistemas con una cierta complejidad. Un ejemplo clásico de aplicación de teoría de grafos es en el tráfico en ciudad. Programar bien o mal los semáforos es la diferencia entre que quede un tráfico razonable o formar un atasco gordo cada día.

Ahí se ve bien que yo no soy futbolero y me colaron esa...  :biggrin:
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 08, 2022, 09:02:09 am
Citar
Korean Nuclear Fusion Reactor Achieves 100 Million Degrees Celsius For 30 Seconds (https://hardware.slashdot.org/story/22/09/07/2221232/korean-nuclear-fusion-reactor-achieves-100-million-degrees-celsius-for-30-seconds)
Posted by BeauHD on Wednesday September 07, 2022 @11:30PM from the moving-from-a-physics-problem-to-an-engineering-one dept.

An anonymous reader quotes a report from New Scientist:
Citar
A nuclear fusion reaction has lasted for 30 seconds at temperatures in excess of 100 million degrees celsius (https://www.newscientist.com/article/2336385-korean-nuclear-fusion-reactor-achieves-100-millionc-for-30-seconds/). While the duration and temperature alone aren't records, the simultaneous achievement of heat and stability brings us a step closer to a viable fusion reactor -- as long as the technique used can be scaled up. [...] Now Yong-Su Na at Seoul National University in South Korea and his colleagues have succeeded in running a reaction at the extremely high temperatures that will be required for a viable reactor, and keeping the hot, ionized state of matter that is created within the device stable for 30 seconds.

Controlling this so-called plasma is vital. If it touches the walls of the reactor, it rapidly cools, stifling the reaction and causing significant damage to the chamber that holds it. Researchers normally use various shapes of magnetic fields to contain the plasma -- some use an edge transport barrier (ETB), which sculpts plasma with a sharp cut-off in pressure near to the reactor wall, a state that stops heat and plasma escaping. Others use an internal transport barrier (ITB) that creates higher pressure nearer the center of the plasma. But both can create instability. Na's team used a modified ITB technique at the Korea Superconducting Tokamak Advanced Research (KSTAR) device, achieving a much lower plasma density. Their approach seems to boost temperatures at the core of the plasma and lower them at the edge, which will probably extend the lifespan of reactor components.

Dominic Power at Imperial College London says that to increase the energy produced by a reactor, you can make plasma really hot, make it really dense or increase confinement time. "This team is finding that the density confinement is actually a bit lower than traditional operating modes, which is not necessarily a bad thing, because it's compensated for by higher temperatures in the core," he says. "It's definitely exciting, but there's a big uncertainty about how well our understanding of the physics scales to larger devices. So something like ITER is going to be much bigger than KSTAR". Na says that low density was key, and that "fast" or more energetic ions at the core of the plasma -- so-called fast-ion-regulated enhancement (FIRE) -- are integral to stability. But the team doesn't yet fully understand the mechanisms involved. The reaction was stopped after 30 seconds only because of limitations with hardware, and longer periods should be possible in future. KSTAR has now shut down for upgrades, with carbon components on the wall of the reactor being replaced with tungsten, which Na says will improve the reproducibility of experiments.
The research has been published in the journal Nature (https://www.nature.com/articles/s41586-022-05008-1).
Saludos.
Título: Re:STEM
Publicado por: pollo en Septiembre 08, 2022, 13:52:30 pm
Citar
Korean Nuclear Fusion Reactor Achieves 100 Million Degrees Celsius For 30 Seconds (https://hardware.slashdot.org/story/22/09/07/2221232/korean-nuclear-fusion-reactor-achieves-100-million-degrees-celsius-for-30-seconds)
Posted by BeauHD on Wednesday September 07, 2022 @11:30PM from the moving-from-a-physics-problem-to-an-engineering-one dept.

An anonymous reader quotes a report from New Scientist:
Citar
A nuclear fusion reaction has lasted for 30 seconds at temperatures in excess of 100 million degrees celsius (https://www.newscientist.com/article/2336385-korean-nuclear-fusion-reactor-achieves-100-millionc-for-30-seconds/). While the duration and temperature alone aren't records, the simultaneous achievement of heat and stability brings us a step closer to a viable fusion reactor -- as long as the technique used can be scaled up. [...] Now Yong-Su Na at Seoul National University in South Korea and his colleagues have succeeded in running a reaction at the extremely high temperatures that will be required for a viable reactor, and keeping the hot, ionized state of matter that is created within the device stable for 30 seconds.

Controlling this so-called plasma is vital. If it touches the walls of the reactor, it rapidly cools, stifling the reaction and causing significant damage to the chamber that holds it. Researchers normally use various shapes of magnetic fields to contain the plasma -- some use an edge transport barrier (ETB), which sculpts plasma with a sharp cut-off in pressure near to the reactor wall, a state that stops heat and plasma escaping. Others use an internal transport barrier (ITB) that creates higher pressure nearer the center of the plasma. But both can create instability. Na's team used a modified ITB technique at the Korea Superconducting Tokamak Advanced Research (KSTAR) device, achieving a much lower plasma density. Their approach seems to boost temperatures at the core of the plasma and lower them at the edge, which will probably extend the lifespan of reactor components.

Dominic Power at Imperial College London says that to increase the energy produced by a reactor, you can make plasma really hot, make it really dense or increase confinement time. "This team is finding that the density confinement is actually a bit lower than traditional operating modes, which is not necessarily a bad thing, because it's compensated for by higher temperatures in the core," he says. "It's definitely exciting, but there's a big uncertainty about how well our understanding of the physics scales to larger devices. So something like ITER is going to be much bigger than KSTAR". Na says that low density was key, and that "fast" or more energetic ions at the core of the plasma -- so-called fast-ion-regulated enhancement (FIRE) -- are integral to stability. But the team doesn't yet fully understand the mechanisms involved. The reaction was stopped after 30 seconds only because of limitations with hardware, and longer periods should be possible in future. KSTAR has now shut down for upgrades, with carbon components on the wall of the reactor being replaced with tungsten, which Na says will improve the reproducibility of experiments.
The research has been published in the journal Nature (https://www.nature.com/articles/s41586-022-05008-1).
Saludos.
Los chinos ya lo habían conseguido el año pasado por 120 segundos si no recuerdo mal. De todas formas el problema sigue siendo que el propio reactor se jode cosa fina, y que sigue necesitando unas cantidades enormes de energía sólo para que la cosa siga funcionando (que no se vaya el plasma a tomar viento).
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 11, 2022, 08:01:00 am
Citar
NASA Makes RISC-V the Go-to Ecosystem for Future Space Missions (https://science.slashdot.org/story/22/09/10/037249/nasa-makes-risc-v-the-go-to-ecosystem-for-future-space-missions)
Posted by EditorDavid on Saturday September 10, 2022 @05:34PM from the taking-a-RISC dept.

SiFive is the first company to produce a chip implementing the RISC-V ISA.

They've now been selected to provide the core CPU for NASA's next generation High-Performance Spaceflight Computing processor (https://www.sifive.com/press/nasa-selects-sifive-and-makes-risc-v-the-go-to-ecosystem) (or HSPC).
Citar
HPSC is expected to be used in virtually every future space mission, from planetary exploration to lunar and Mars surface missions.

HPSC will utilize an 8-core, SiFive® Intelligence™ X280 RISC-V vector core, as well as four additional SiFive RISC-V cores, to deliver 100x the computational capability of today's space computers. This massive increase in computing performance will help usher in new possibilities for a variety of mission elements such as autonomous rovers, vision processing, space flight, guidance systems, communications, and other applications....

The SiFive X280 is a multi-core capable RISC-V processor with vector extensions and SiFive Intelligence Extensions and is optimized for AI/ML compute at the edge. The X280 is ideal for applications requiring high-throughput, single-thread performance while under significant power constraints. The X280 has demonstrated a 100x increase in compute capabilities compared to today's space computers..

In scientific and space workloads, the X280 provides several orders of magnitude improvement compared to competitive CPU solutions.
A business development executive at SiFive says their X280 core "demonstrates orders of magnitude performance gains over competing processor technology," adding that the company's IP "allows NASA to take advantage of the support, flexibility, and long-term viability of the fast-growing global RISC-V ecosystem.

"We've always said that with SiFive the future has no limits, and we're excited to see the impact of our innovations extend well beyond our planet."

And their announcement stresses that open hardware is a win for everybody:
Citar
The open and collaborative nature of RISC-V will allow the broad academic and scientific software development community to contribute and develop scientific applications and algorithms, as well optimizing the many math functions, filters, transforms, neural net libraries, and other software libraries, as part of a robust and long-term software ecosystem.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 12, 2022, 06:35:50 am
Citar
Breakthrough: Air Pollution/Cancer Research Challenges the Science on Tumors (https://science.slashdot.org/story/22/09/11/2252242/breakthrough-air-pollutioncancer-research-challenges-the-science-on-tumors)
Posted by EditorDavid on Sunday September 11, 2022 @06:57PM from the dream-of-gene-y dept.

"Scientists have uncovered how air pollution causes lung cancer," reports the Guardian (https://www.theguardian.com/science/2022/sep/10/cancer-breakthrough-is-a-wake-up-call-on-danger-of-air-pollution), "in groundbreaking research that promises to rewrite our understanding of the disease."

The BBC is calling it "a discovery that completely transforms our understanding of how tumours arise (https://www.bbc.com/news/health-62797777)."
Citar
The team at the Francis Crick Institute in London showed that rather than causing damage, air pollution was waking up old damaged cells. One of the world's leading experts, Prof Charles Swanton, said the breakthrough marked a "new era". And it may now be possible to develop drugs that stop cancers forming.

The findings could explain how hundreds of cancer-causing substances act on the body. The classical view of cancer starts with a healthy cell. It acquires more and more mutations in its genetic code, or DNA, until it reaches a tipping point. Then it becomes a cancer and grows uncontrollably.... The researchers have produced evidence of a different idea. The damage is already there in our cell's DNA, picked up as we grow and age, but something needs to pull the trigger that actually makes it cancerous....

Around one in every 600,000 cells in the lungs of a 50-year-old already contains potentially cancerous mutations. These are acquired as we age but appear completely healthy until they are activated by the chemical alarm and become cancerous. Crucially, the researchers were able to stop cancers forming in mice exposed to air pollution by using a drug that blocks the alarm signal.

The results are a double breakthrough, both for understanding the impact of air pollution and the fundamentals of how we get cancer.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 24, 2022, 22:10:34 pm
Como diría Santiago Niño Becerra, para reflexionar...

(https://i.imgur.com/PUEZBpy.png)
https://twitter.com/simonw/status/1573345234289041408 (https://twitter.com/simonw/status/1573345234289041408)

Aquí el hilo de Reddit mencionado en el tweet:

https://www.reddit.com/r/OpenAI/comments/xlvygv/artifical_intelligence_allows_me_to_get_straight/ (https://www.reddit.com/r/OpenAI/comments/xlvygv/artifical_intelligence_allows_me_to_get_straight/)

Saludos.
Título: Re:STEM
Publicado por: PastorMesetario en Septiembre 25, 2022, 00:09:53 am
Stable Diffusion y Gpt3 dan mucho puto miedo.
Título: Re:STEM
Publicado por: pollo en Septiembre 25, 2022, 10:38:21 am
Como diría Santiago Niño Becerra, para reflexionar...

(https://i.imgur.com/PUEZBpy.png)
https://twitter.com/simonw/status/1573345234289041408 (https://twitter.com/simonw/status/1573345234289041408)

Aquí el hilo de Reddit mencionado en el tweet:

https://www.reddit.com/r/OpenAI/comments/xlvygv/artifical_intelligence_allows_me_to_get_straight/ (https://www.reddit.com/r/OpenAI/comments/xlvygv/artifical_intelligence_allows_me_to_get_straight/)

Saludos.
Todo esto está muy bien, hasta que tienes que escribir algo con complejidad en la que no valga imitar superficialmente la estructura de un texto, y se te vea el plumero que en realidad no tienes ni idea de nada. O cuando tengas tú que interpretar el texto y se vea que no entiendes nada.

Porque al final, siempre habrá situaciones en las que no puedas echar mano de la IA para que te haga quedar bien.
¿Qué le pasaba ya a la gente que tiene que recurrir a terceros para que le haga los deberes? Pues lo mismo.

Esto se arregla fácil: prueba escrita presencial u oral en directo.
Título: Re:STEM
Publicado por: wanderer en Septiembre 25, 2022, 11:26:40 am
Como diría Santiago Niño Becerra, para reflexionar...

(https://i.imgur.com/PUEZBpy.png)
https://twitter.com/simonw/status/1573345234289041408 (https://twitter.com/simonw/status/1573345234289041408)

Aquí el hilo de Reddit mencionado en el tweet:

https://www.reddit.com/r/OpenAI/comments/xlvygv/artifical_intelligence_allows_me_to_get_straight/ (https://www.reddit.com/r/OpenAI/comments/xlvygv/artifical_intelligence_allows_me_to_get_straight/)

Saludos.
Todo esto está muy bien, hasta que tienes que escribir algo con complejidad en la que no valga imitar superficialmente la estructura de un texto, y se te vea el plumero que en realidad no tienes ni idea de nada. O cuando tengas tú que interpretar el texto y se vea que no entiendes nada.

Porque al final, siempre habrá situaciones en las que no puedas echar mano de la IA para que te haga quedar bien.
¿Qué le pasaba ya a la gente que tiene que recurrir a terceros para que le haga los deberes? Pues lo mismo.

Esto se arregla fácil: prueba escrita presencial u oral en directo.

Eso ya existe: así funcionan los TFG's y TFM's (trabajos de fin de Grado y de fin de Máster). Y yo puedo asegurar que las fortalezas y carencias de los candidatos, enseguida salen a la luz.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 25, 2022, 21:24:56 pm
En Microsiervos se han hecho eco de la polémica...

Citar
Los problemas morales y sociales de utilizar la IA para hacer los deberes (https://www.microsiervos.com/archivo/ia/los-problemas-morales-y-sociales-de-utilizar-la-ia-para-hacer-los-deberes.html)
POR @ALVY (https://twitter.com/alvy) — 25 DE SEPTIEMBRE DE 2022
(https://i.imgur.com/izZ5B3S.jpg)
Los problemas morales y sociales de utilizar la IA para hacer los deberes / Stable Difussion

Una joven (https://twitter.com/AutismCapital/status/1573735276995715072) utilizó la inteligencia artificial de OpenAI (https://openai.com/blog/openai-api/) para hacer sus deberes y sacar todo sobresalientes al presentar los ensayos de clase. Al explicarlo a la comunidad, alguien le dijo que eso podría suponer algunos «problemas» morales. Esta fue la respuesta completa ante la situación:

Citar
Existen algunos problemas morales y sociales potenciales con el uso de la IA para hacer los deberes. En primer lugar, si los estudiantes utilizan la IA para que les haga los deberes, puede que no estén aprendiendo el material tan bien como como podrían. Esto podría acarrear problemas en el futuro cuando se espera que conozcan el material para los exámenes o las aplicaciones del mundo real. Además, utilizar la IA para hacer los deberes podría llevar a que hicieran trampas. Si los estudiantes son capaces de utilizar la IA para que haga los deberes por ellos, podría darles una ventaja injusta sobre otros estudiantes que hacen los deberes por sí mismos. Por último, el uso de la IA para hacer los deberes podría llevar a una dependencia de la tecnología que podría ser perjudicial si la tecnología fallara o dejara de estar disponible.
Lo divertido del asunto es que la respuesta está creada con la misma IA de OpenAI con la que se escribieron los ensayos originales. Hay un hilo muy interesante de Carlos Santana (@DotCSV (https://twitter.com/DotCSV/status/1573456859314507776)) donde se cita el hilo original (https://www.reddit.com/r/OpenAI/comments/xlvygv/artifical_intelligence_allows_me_to_get_straight/), incluyendo detalles como que la joven dice que llegó a ganar 100 dólares «haciéndole los deberes» a sus compañeros de clase (usando esa IA). En un giro de los acontecimientos, la respuesta en el propio hilo también se la reescribió la IA.

Alguien también propuso evaluar esas pruebas o exámenes con otra IA, quizá buscando detectarlas a lo Voigh-Kampff o algo así. También apareció un profesor diciendo que cuando tiene que evaluar un texto y se da cuenta de que lo ha escrito una IA es una sensación increíblemente deprimente y de «vida desperdiciada» para él (https://twitter.com/simonw/status/1573345234289041408).

Bonus: la traducción de la explicación completa sobre «Los problemas morales y sociales de utilizar la IA» está traducida con otra inteligencia artificial (en este caso, DeepL (https://www.deepl.com/translator)), al igual que el título de la anotación. Para ponerle la guinda, también la imagen está creada con una IA (Stable Difussion (https://huggingface.co/spaces/stabilityai/stable-diffusion)).
Saludos.
Título: Re:STEM
Publicado por: Saturio en Septiembre 26, 2022, 00:19:30 am
En Microsiervos se han hecho eco de la polémica...

Citar
Los problemas morales y sociales de utilizar la IA para hacer los deberes (https://www.microsiervos.com/archivo/ia/los-problemas-morales-y-sociales-de-utilizar-la-ia-para-hacer-los-deberes.html)
POR @ALVY (https://twitter.com/alvy) — 25 DE SEPTIEMBRE DE 2022
(https://i.imgur.com/izZ5B3S.jpg)
Los problemas morales y sociales de utilizar la IA para hacer los deberes / Stable Difussion

Una joven (https://twitter.com/AutismCapital/status/1573735276995715072) utilizó la inteligencia artificial de OpenAI (https://openai.com/blog/openai-api/) para hacer sus deberes y sacar todo sobresalientes al presentar los ensayos de clase. Al explicarlo a la comunidad, alguien le dijo que eso podría suponer algunos «problemas» morales. Esta fue la respuesta completa ante la situación:

Citar
Existen algunos problemas morales y sociales potenciales con el uso de la IA para hacer los deberes. En primer lugar, si los estudiantes utilizan la IA para que les haga los deberes, puede que no estén aprendiendo el material tan bien como como podrían. Esto podría acarrear problemas en el futuro cuando se espera que conozcan el material para los exámenes o las aplicaciones del mundo real. Además, utilizar la IA para hacer los deberes podría llevar a que hicieran trampas. Si los estudiantes son capaces de utilizar la IA para que haga los deberes por ellos, podría darles una ventaja injusta sobre otros estudiantes que hacen los deberes por sí mismos. Por último, el uso de la IA para hacer los deberes podría llevar a una dependencia de la tecnología que podría ser perjudicial si la tecnología fallara o dejara de estar disponible.
Lo divertido del asunto es que la respuesta está creada con la misma IA de OpenAI con la que se escribieron los ensayos originales. Hay un hilo muy interesante de Carlos Santana (@DotCSV (https://twitter.com/DotCSV/status/1573456859314507776)) donde se cita el hilo original (https://www.reddit.com/r/OpenAI/comments/xlvygv/artifical_intelligence_allows_me_to_get_straight/), incluyendo detalles como que la joven dice que llegó a ganar 100 dólares «haciéndole los deberes» a sus compañeros de clase (usando esa IA). En un giro de los acontecimientos, la respuesta en el propio hilo también se la reescribió la IA.

Alguien también propuso evaluar esas pruebas o exámenes con otra IA, quizá buscando detectarlas a lo Voigh-Kampff o algo así. También apareció un profesor diciendo que cuando tiene que evaluar un texto y se da cuenta de que lo ha escrito una IA es una sensación increíblemente deprimente y de «vida desperdiciada» para él (https://twitter.com/simonw/status/1573345234289041408).

Bonus: la traducción de la explicación completa sobre «Los problemas morales y sociales de utilizar la IA» está traducida con otra inteligencia artificial (en este caso, DeepL (https://www.deepl.com/translator)), al igual que el título de la anotación. Para ponerle la guinda, también la imagen está creada con una IA (Stable Difussion (https://huggingface.co/spaces/stabilityai/stable-diffusion)).
Saludos.

Jodo, pues esa IA escribe como un alumno no muy brillante de primero de ESO.

Título: Re:STEM
Publicado por: el malo en Septiembre 26, 2022, 01:33:13 am
En Microsiervos se han hecho eco de la polémica...

Citar
Los problemas morales y sociales de utilizar la IA para hacer los deberes (https://www.microsiervos.com/archivo/ia/los-problemas-morales-y-sociales-de-utilizar-la-ia-para-hacer-los-deberes.html)
POR @ALVY (https://twitter.com/alvy) — 25 DE SEPTIEMBRE DE 2022
(https://i.imgur.com/izZ5B3S.jpg)
Los problemas morales y sociales de utilizar la IA para hacer los deberes / Stable Difussion

Una joven (https://twitter.com/AutismCapital/status/1573735276995715072) utilizó la inteligencia artificial de OpenAI (https://openai.com/blog/openai-api/) para hacer sus deberes y sacar todo sobresalientes al presentar los ensayos de clase. Al explicarlo a la comunidad, alguien le dijo que eso podría suponer algunos «problemas» morales. Esta fue la respuesta completa ante la situación:

Citar
Existen algunos problemas morales y sociales potenciales con el uso de la IA para hacer los deberes. En primer lugar, si los estudiantes utilizan la IA para que les haga los deberes, puede que no estén aprendiendo el material tan bien como como podrían. Esto podría acarrear problemas en el futuro cuando se espera que conozcan el material para los exámenes o las aplicaciones del mundo real. Además, utilizar la IA para hacer los deberes podría llevar a que hicieran trampas. Si los estudiantes son capaces de utilizar la IA para que haga los deberes por ellos, podría darles una ventaja injusta sobre otros estudiantes que hacen los deberes por sí mismos. Por último, el uso de la IA para hacer los deberes podría llevar a una dependencia de la tecnología que podría ser perjudicial si la tecnología fallara o dejara de estar disponible.
Lo divertido del asunto es que la respuesta está creada con la misma IA de OpenAI con la que se escribieron los ensayos originales. Hay un hilo muy interesante de Carlos Santana (@DotCSV (https://twitter.com/DotCSV/status/1573456859314507776)) donde se cita el hilo original (https://www.reddit.com/r/OpenAI/comments/xlvygv/artifical_intelligence_allows_me_to_get_straight/), incluyendo detalles como que la joven dice que llegó a ganar 100 dólares «haciéndole los deberes» a sus compañeros de clase (usando esa IA). En un giro de los acontecimientos, la respuesta en el propio hilo también se la reescribió la IA.

Alguien también propuso evaluar esas pruebas o exámenes con otra IA, quizá buscando detectarlas a lo Voigh-Kampff o algo así. También apareció un profesor diciendo que cuando tiene que evaluar un texto y se da cuenta de que lo ha escrito una IA es una sensación increíblemente deprimente y de «vida desperdiciada» para él (https://twitter.com/simonw/status/1573345234289041408).

Bonus: la traducción de la explicación completa sobre «Los problemas morales y sociales de utilizar la IA» está traducida con otra inteligencia artificial (en este caso, DeepL (https://www.deepl.com/translator)), al igual que el título de la anotación. Para ponerle la guinda, también la imagen está creada con una IA (Stable Difussion (https://huggingface.co/spaces/stabilityai/stable-diffusion)).
Saludos.

Jodo, pues esa IA escribe como un alumno no muy brillante de primero de ESO.

El primer problema de la inteligencia artificial es que crap in = crap out

Al ritmo que vamos en occidente de "entontecimiento" la IA nos va a acabar dando sopas con hondas, no por méritos de la IA sino por deméritos nuestros.
Título: Re:STEM
Publicado por: Saturio en Septiembre 26, 2022, 09:58:18 am


El primer problema de la inteligencia artificial es que crap in = crap out

Al ritmo que vamos en occidente de "entontecimiento" la IA nos va a acabar dando sopas con hondas, no por méritos de la IA sino por deméritos nuestros.

Efectivamente. Se estima que el consumidor mayoritario estadounidense de contenido audiovisual tiene un nivel de uso/comprensión de la lengua que quizás no llegue al B2. Lógicamente tienen fluidez pero su vocabulario y su gramática están en un B2.
Así que cualquier AI torpe gana al usuario medio de la lengua, no porque la AI sea buena sino porque los humanos son malísimos. El problema es que las economías de escala de la producción de noticias y contenidos de la cultura popular hace que ese nivel sea el que se aplica.
Independientemente de que sea cierto o no que pensamos con el lenguaje, lo que está claro es que adquirimos y compartimos con el lenguaje. Si adquirimos y compartimos simplezas, simplezas es lo que tenemos en la cabeza.

Hemos llegado a un punto en el que gran cantidad de gente no entiende, por ejemplo, una película del pasado. No entienden ni el texto ni el subtexto ni el propio lenguaje cinematográfico (ni elipsis, ni metáforas visuales...) y estamos hablando de productos que eran de consumo.

Lo que no deja de ser sorprendente en un mundo en el que unos tipos colocan un telescopio a 100.000 kilómetros y se dedican a buscar pruebas o refutaciones de las teorías sobre la creación del universo.

Título: Re:STEM
Publicado por: el malo en Septiembre 26, 2022, 10:25:30 am


El primer problema de la inteligencia artificial es que crap in = crap out

Al ritmo que vamos en occidente de "entontecimiento" la IA nos va a acabar dando sopas con hondas, no por méritos de la IA sino por deméritos nuestros.

Efectivamente. Se estima que el consumidor mayoritario estadounidense de contenido audiovisual tiene un nivel de uso/comprensión de la lengua que quizás no llegue al B2. Lógicamente tienen fluidez pero su vocabulario y su gramática están en un B2.
Así que cualquier AI torpe gana al usuario medio de la lengua, no porque la AI sea buena sino porque los humanos son malísimos. El problema es que las economías de escala de la producción de noticias y contenidos de la cultura popular hace que ese nivel sea el que se aplica.
Independientemente de que sea cierto o no que pensamos con el lenguaje, lo que está claro es que adquirimos y compartimos con el lenguaje. Si adquirimos y compartimos simplezas, simplezas es lo que tenemos en la cabeza.

Hemos llegado a un punto en el que gran cantidad de gente no entiende, por ejemplo, una película del pasado. No entienden ni el texto ni el subtexto ni el propio lenguaje cinematográfico (ni elipsis, ni metáforas visuales...) y estamos hablando de productos que eran de consumo.

Lo que no deja de ser sorprendente en un mundo en el que unos tipos colocan un telescopio a 100.000 kilómetros y se dedican a buscar pruebas o refutaciones de las teorías sobre la creación del universo.

El primer día de instituto, la profesora de lengua que tuve en primero de BUP nos hizo abrir el cuaderno y copiar en grande en la primera página con letras mayúsculas:

EL LENGUAJE ES LA HERRAMIENTA DEL PENSAMIENTO

Y se nos pasamos la primera clase entendiendo el significado de esa frase.

En su momento no le di mucha importancia. Hasta muchos años después no me di cuenta de cómo cambiando el lenguaje cambias el relato (por ejemplo, ya no hay inmigrantes ni emigrantes, ahora hay "migrantes").

Cada día que pasa le estoy más agradecido a esa mujer por lo que nos enseñó y por todo lo que nos quiso enseñar "fuera del programa".
Título: Re:STEM
Publicado por: Danny_M en Septiembre 26, 2022, 20:45:24 pm
En su momento no le di mucha importancia. Hasta muchos años después no me di cuenta de cómo cambiando el lenguaje cambias el relato (por ejemplo, ya no hay inmigrantes ni emigrantes, ahora hay "migrantes").

Esto es algo muy presente en la obra de Orwell, que se hace explícito en el epílogo de 1984, y uno de los motivos por los que creo que 1984 (entre otras) debería ser lectura obligatoria en ESO/bachillerato. Sería también una interesante introducción a los peligros del posmodernismo y su absurdo "el lenguaje crea la realidad", para distinguir entre la realidad -que es objetiva- y la imagen mental que tenemos de la realidad -subjetiva y manipulable-. Aunque no sé yo si mis ojos verán un plan de estudios que hable de estas cosas.
Título: Re:STEM
Publicado por: saturno en Octubre 04, 2022, 22:50:55 pm
China consigue la soluciön, se quita de encima los CEOs, los supersalarios, y se queda con el talento, 
Jaque mate,  :biggrin:




 China: una mujer robot impulsada por una IA se convierte en directora ejecutiva de una empresa con varios miles de empleados


Una primicia en un país donde los robots ya están muy presentes. Pero esta vez, se trata de un paso adicional que se ha dado con este robot humanoide y su inteligencia artificial.
https://www-francetvinfo-fr.translate.goog/monde/chine/chine-une-femme-robot-pilotee-par-une-ia-devient-pdg-d-une-entreprise-de-plusieurs-milliers-de-salaries_5386039.html?_x_tr_sl=auto&_x_tr_tl=es&_x_tr_hl=en&_x_tr_pto=wapp

 Publicadoel 28/09/2022 16:57 Actualizadoel 28/09/2022 17:02
Citar
No es ciencia ficción. Una mujer robot acaba de ser nombrada directora de una gran empresa china . Uno de los líderes de videojuegos de China, NetDragon Websoft, está detrás de esta primicia y ha confiado su filial, Fujian NetDragon Websoft, a la inteligencia artificial. La idea en realidad se remonta a varios años. En 2017, gracias a la IA, la empresa decidió crear un personaje virtual y darle responsabilidades. La empresa, en ese momento, quería mostrar a sus clientes que la inteligencia artificial que estaba desarrollando para sus juegos también podía funcionar en la vida real de la empresa.

Este personaje es por tanto Tang Yu, una robot femenina que empezó ocupando el puesto de número 2 de la empresa, antes de ser nombrada para un puesto de directora general rotativa de la empresa. No tiene precedentes. Net Dragon Websoft tiene varios miles de empleados y maneja miles de millones de dólares. Internamente, se llama líder digital virtual, pero aún tiene una apariencia física. El rostro de la CEO robot aparece en las pantallas de los ordenadores en forma de humanoide, con su estricto disfraz, su corte de pelo perfecto. Gracias a la inteligencia artificial, también es capaz de expresarse.

https://youtu.be/Yz8msEaBIJY

Un CEO que trabaja las 24 horas

Pero, ¿el robot realmente dirige el negocio? Sí y no, porque evidentemente son los humanos quienes programan el robot y quienes pueden desenchufarlo en cualquier momento. Por lo tanto, sus poderes no son ilimitados, pero una vez que se inicia el programa, el robot CEO funciona de manera casi "normal". Ella es capaz de aprobar, firmar documentos, como cualquier CEO, pero también de gestionar proyectos, evaluar el desempeño del personal y posiblemente decidir sobre sanciones. "Tang Yu agilizará los procesos, mejorará la calidad de las tareas de trabajo y la velocidad de ejecución".se regocija NetDragon. La empresa destaca su racionalidad y lógica, pues a diferencia de los humanos, no tiene sentimientos. El CEO robot tiene la ventaja de trabajar las 24 horas del día, y todo eso, sin cobrar.
Título: Re:STEM
Publicado por: wanderer en Octubre 05, 2022, 09:12:53 am
Interesante artículo que explica las debilidades de la ciencia española:

Citar
TAMBIÉN FALTA PROMOCIÓN
Marginados del Nobel: por qué España lleva un siglo (y lo que queda) sin premio en ciencia
Aunque España es la décima potencia por publicaciones científicas, ni huele los mayores premios de la ciencia. La financiación y la endogamia lastran la excelencia

https://www.elconfidencial.com/tecnologia/ciencia/2022-10-05/nobel-espana-ciencia-ramon-cajal-severo-ochoa_3501359/ (https://www.elconfidencial.com/tecnologia/ciencia/2022-10-05/nobel-espana-ciencia-ramon-cajal-severo-ochoa_3501359/)
Título: Re:STEM
Publicado por: Saturio en Octubre 05, 2022, 09:35:46 am
China consigue la soluciön, se quita de encima los CEOs, los supersalarios, y se queda con el talento, 
Jaque mate,  :biggrin:




 China: una mujer robot impulsada por una IA se convierte en directora ejecutiva de una empresa con varios miles de empleados


Una primicia en un país donde los robots ya están muy presentes. Pero esta vez, se trata de un paso adicional que se ha dado con este robot humanoide y su inteligencia artificial.
https://www-francetvinfo-fr.translate.goog/monde/chine/chine-une-femme-robot-pilotee-par-une-ia-devient-pdg-d-une-entreprise-de-plusieurs-milliers-de-salaries_5386039.html?_x_tr_sl=auto&_x_tr_tl=es&_x_tr_hl=en&_x_tr_pto=wapp

 Publicadoel 28/09/2022 16:57 Actualizadoel 28/09/2022 17:02
Citar
No es ciencia ficción. Una mujer robot acaba de ser nombrada directora de una gran empresa china . Uno de los líderes de videojuegos de China, NetDragon Websoft, está detrás de esta primicia y ha confiado su filial, Fujian NetDragon Websoft, a la inteligencia artificial. La idea en realidad se remonta a varios años. En 2017, gracias a la IA, la empresa decidió crear un personaje virtual y darle responsabilidades. La empresa, en ese momento, quería mostrar a sus clientes que la inteligencia artificial que estaba desarrollando para sus juegos también podía funcionar en la vida real de la empresa.

Este personaje es por tanto Tang Yu, una robot femenina que empezó ocupando el puesto de número 2 de la empresa, antes de ser nombrada para un puesto de directora general rotativa de la empresa. No tiene precedentes. Net Dragon Websoft tiene varios miles de empleados y maneja miles de millones de dólares. Internamente, se llama líder digital virtual, pero aún tiene una apariencia física. El rostro de la CEO robot aparece en las pantallas de los ordenadores en forma de humanoide, con su estricto disfraz, su corte de pelo perfecto. Gracias a la inteligencia artificial, también es capaz de expresarse.

https://youtu.be/Yz8msEaBIJY

Un CEO que trabaja las 24 horas

Pero, ¿el robot realmente dirige el negocio? Sí y no, porque evidentemente son los humanos quienes programan el robot y quienes pueden desenchufarlo en cualquier momento. Por lo tanto, sus poderes no son ilimitados, pero una vez que se inicia el programa, el robot CEO funciona de manera casi "normal". Ella es capaz de aprobar, firmar documentos, como cualquier CEO, pero también de gestionar proyectos, evaluar el desempeño del personal y posiblemente decidir sobre sanciones. "Tang Yu agilizará los procesos, mejorará la calidad de las tareas de trabajo y la velocidad de ejecución".se regocija NetDragon. La empresa destaca su racionalidad y lógica, pues a diferencia de los humanos, no tiene sentimientos. El CEO robot tiene la ventaja de trabajar las 24 horas del día, y todo eso, sin cobrar.

Si la dirección por KPIs ya nos ha dado la debacle corporativa, ahora pon al frente a una IA diseñada por los mismos con los mismos mierdacriterios.

Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 06, 2022, 11:26:12 am
Citar
DeepMind's Game-Playing AI Has Beaten a 50-Year-Old Record In Computer Science (https://science.slashdot.org/story/22/10/05/2049228/deepminds-game-playing-ai-has-beaten-a-50-year-old-record-in-computer-science)
Posted by BeauHD on Wednesday October 05, 2022 @11:30PM from the matrix-multiplication dept.

An anonymous reader quotes a report from MIT Technology Review:
Citar
DeepMind has used its board-game playing AI AlphaZero to discover a faster way to solve a fundamental math problem in computer science, beating a record that has stood for more than 50 years (https://www.technologyreview.com/2022/10/05/1060717/deepmind-uses-its-game-playing-ai-to-best-a-50-year-old-record-in-computer-science/). A year after it took biologists by surprise, AlphaFold has changed how researchers work and set DeepMind on a new course. The problem, matrix multiplication, is a crucial type of calculation at the heart of many different applications, from displaying images on a screen to simulating complex physics. It is also fundamental to machine learning itself. Speeding up this calculation could have a big impact on thousands of everyday computer tasks, cutting costs and saving energy.

Despite the calculation's ubiquity, it is still not well understood. A matrix is simply a grid of numbers, representing anything you want. Multiplying two matrices together typically involves multiplying the rows of one with the columns of the other. The basic technique for solving the problem is taught in high school. But things get complicated when you try to find a faster method. This is because there are more ways to multiply two matrices together than there are atoms in the universe (10 to the power of 33, for some of the cases the researchers looked at).

The trick was to turn the problem into a kind of three-dimensional board game, called TensorGame. The board represents the multiplication problem to be solved, and each move represents the next step in solving that problem. The series of moves made in a game therefore represents an algorithm. The researchers trained a new version of AlphaZero, called AlphaTensor, to play this game. Instead of learning the best series of moves to make in Go or chess, AlphaTensor learned the best series of steps to make when multiplying matrices. It was rewarded for winning the game in as few moves as possible. [...] The researchers describe their work in a paper published in Nature today (https://www.nature.com/articles/d41586-022-03166-w). The headline result is that AlphaTensor discovered a way to multiply together two four-by-four matrices that is faster than a method devised in 1969 by the German mathematician Volker Strassen, which nobody had been able to improve on since. The basic high school method takes 64 steps; Strassen's takes 49 steps. AlphaTensor found a way to do it in 47 steps.
"Overall, AlphaTensor beat the best existing algorithms for more than 70 different sizes of matrix," concludes the report. "It reduced the number of steps needed to multiply two nine-by-nine matrices from 511 to 498, and the number required for multiplying two 11-by-11 matrices from 919 to 896. In many other cases, AlphaTensor rediscovered the best existing algorithm."

(https://i.imgur.com/z57aq6g.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 09, 2022, 16:11:57 pm
https://elpais.com/tecnologia/2022-10-09/blaise-aguera-las-maquinas-pueden-aprender-a-comportarse.html

(https://i.imgur.com/u581wpP.jpg)

Saludos.
Título: Re:STEM
Publicado por: puede ser en Octubre 09, 2022, 22:11:42 pm
https://elpais.com/tecnologia/2022-10-09/blaise-aguera-las-maquinas-pueden-aprender-a-comportarse.html

(https://i.imgur.com/u581wpP.jpg)

Saludos.
Todo esto ya lo vio Wittgenstein cuando decía cosas como: "si un león pudiera hablar, no lo podríamos entender"

Todas las disquisiciones sobre si las AI son/serán inteligentes, si tienen/tendrán conciencia, descansan sobre el equívoco de pretender que ya se entiende qué es la inteligencia o conciencia humanas.

En el párrafo clave de la entrevista se dice que critican a Lambda (o como se diga) por predecir sólo la respuesta más probable. Y el científico afirma entonces que es que eso es la función principal del cerebro humano.

Es la pescadilla que se muerde la cola. Afirmar inteligencia a una máquina supone negarsela a los humanos. Simplemente hay Inteligencia Humana e Inteligencia Computacional. Igual que la Inteligencia de los Leones es distinta de la Inteligencia Humana. (Porque los objetivos vitales de un león son distintos de los de un humano).
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 15, 2022, 06:44:20 am
(https://i.imgur.com/Mj7gRns.png)

Citar
DeepMind Breaks 50-Year Math Record Using AI; New Record Falls a Week Later (https://science.slashdot.org/story/22/10/13/2259214/deepmind-breaks-50-year-math-record-using-ai-new-record-falls-a-week-later)
Posted by BeauHD on Thursday October 13, 2022 @10:02PM from the that-didn't-take-long dept.

Last week, DeepMind announced it discovered a more efficient way to perform matrix multiplication, conquering a 50-year-old record. This week, two Austrian researchers at Johannes Kepler University Linz claim (https://arxiv.org/abs/2210.04045) they have bested that new record by one step (https://arstechnica.com/information-technology/2022/10/deepmind-breaks-50-year-math-record-using-ai-new-record-falls-a-week-later/). Ars Technica reports:
Citar
In 1969, a German mathematician named Volker Strassen discovered (https://link.springer.com/article/10.1007/BF02165411) the previous-best algorithm for multiplying 4x4 matrices, which reduces the number of steps necessary to perform a matrix calculation. For example, multiplying two 4x4 matrices together using a traditional schoolroom method would take 64 multiplications, while Strassen's algorithm can perform the same feat in 49 multiplications. Using a neural network called AlphaTensor, DeepMind discovered a way to reduce that count to 47 multiplications, and its researchers published a paper (https://www.nature.com/articles/s41586-022-05172-4) about the achievement in Nature last week.

To discover more efficient matrix math algorithms, DeepMind set up the problem like a single-player game. The company wrote about (https://www.deepmind.com/blog/discovering-novel-algorithms-with-alphatensor) the process in more detail in a blog post last week. DeepMind then trained AlphaTensor using reinforcement learning to play this fictional math game -- similar to how AlphaGo learned to play Go -- and it gradually improved over time. Eventually, it rediscovered Strassen's work and those of other human mathematicians, then it surpassed them, according to DeepMind. In a more complicated example, AlphaTensor discovered a new way to perform 5x5 matrix multiplication in 96 steps (versus 98 for the older method).

This week, Manuel Kauers and Jakob Moosbauer of Johannes Kepler University in Linz, Austria, published a paper (https://arxiv.org/abs/2210.04045) claiming they have reduced that count by one, down to 95 multiplications. It's no coincidence that this apparently record-breaking new algorithm came so quickly because it built off of DeepMind's work. In their paper, Kauers and Moosbauer write, "This solution was obtained from the scheme of [DeepMind's researchers] by applying a sequence of transformations leading to a scheme from which one multiplication could be eliminated."
Saludos.
Título: Re:STEM
Publicado por: Marv en Octubre 15, 2022, 11:51:08 am
Para que no se dejen engañar por vendedores, es State Of The Art de la Inteligencia Artificial sería más o menos así.

Hay 2+1 familias de IA:

1. AGI (Artificial General Intelligence). Es lo que conocemos de las películas, Terminator, HAL9000, etc. Es la inteligencia que consideramos cuando pensamos en un ser humano. Y es la única que en puridad debería llamarse IA. Hay gente trabajando en esto (no tanta), pero no hay nada significativo ni diferencial. Fundamentalmente no se tiene puta idea de cómo funciona una GI biológica, al menos en los aspectos más fundamentales como consciencia, memoria, entendimiento o arquitectura interna.

2. Machine Learning o Deep Learning). En realidad son, como se decía en mi época, Sistemas Expertos -concepto mucho más adecuado a la realidad. Son sistemas que utilizan un modelado simplificado de red neuronal (algunas veces con soporte hardware y otras no) para resolver tareas específicas y acotadas. No se programan, sino que se 'entrenan'. Esta es la parte que está explotando hoy día, y la verdad es que hacen cosas sorprendentes, pero en definitiva corren un algoritmo. El algoritmo que queda imbricado en la red neuronal una vez entrenada. Hay que decir que el ser humano no hace algo muy diferente a nivel conceptual, por ejemplo para procesar la información de entrada. La diferencia estaría en que nosotros tenemos unos procesos de más alto nivel que hacen cosas con eso que nos llega.

+

IA Clásica. Básicamente algoritmos estocásticos. Tienen bastante utilidad y han ido mejorando mucho, la diferencia con el anterior es que no están apoyados en un sistema neuronal artificial... y no rellenan titulares.

--

Cuando dicen que los roboces van a conquistar el mundo y que debemos prepararnos, les están hablando de AGI. Spoiler: duerman tranquilos.

Cuando dicen que los CEO van a ser sustituidos por máquinas les están hablando de Machine Learning. No hay entendimiento ahí, ni consciencia, ni nada parecido. Pero ojo, en muchísimos aspectos ya se ha visto que pueden llegar más lejos que nosotros en esas tareas específicas. Mi pregunta aquí es si basta con que una máquina tome las mismas decisiones que haría un ser humano -eso se puede conseguir, en principio-, o se debería exigir que la entidad comprenda lo que está haciendo. Y me contesto: nosotros en realidad a duras penas entendemos gran parte de lo que hacemos, y ha sido así desde las cavernas. En nuestro comportamiento hay una parte de automatismo y simple replicación enorme, por no hablar que estamos expuestos a influencias directamente perversas.

--

Luego estarían los temas filosóficos: si consiguiéramos una AGI, ¿tendría consciencia? ¿puede sufrir? ¿hay problemas éticos? ¿hace falta un cuerpo biológico para ser inteligente? Muy divertido, pero que no les engañen: no se sabe una puta mierda.

Lo que ocurre es lo de siempre: muchos quieren que ustedes piensen que sus desarrollos son AGI avanzada, cuando son Machine Learning en el mejor de los casos. Otros directamente es que ni saben de lo que hablan. Para los que viven de la sensación, el clicbait y las visitas, es mucho mejor content hablar de roboces astutos y peligrosos que de 'Análisis discriminante lineal' o cosas así.
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 28, 2022, 00:04:42 am
Citar
Scientists Discover Material That Can Be Made Like a Plastic But Conducts Like a Metal (https://science.slashdot.org/story/22/10/26/2346220/scientists-discover-material-that-can-be-made-like-a-plastic-but-conducts-like-a-metal)
Posted by BeauHD on Thursday October 27, 2022 @09:00AM from the material-science dept.

An anonymous reader quotes a report from Phys.Org:
Citar
Scientists with the University of Chicago have discovered a way to create a material that can be made like a plastic, but conducts electricity more like a metal (https://phys.org/news/2022-10-scientists-material-plastic-metal.html). The research, published Oct. 26 in Nature (https://dx.doi.org/10.1038/s41586-022-05261-4), shows how to make a kind of material in which the molecular fragments are jumbled and disordered, but can still conduct electricity extremely well. "In principle, this opens up the design of a whole new class of materials that conduct electricity, are easy to shape, and are very robust in everyday conditions," said John Anderson, an associate professor of chemistry at the University of Chicago and the senior author on the study. "Essentially, it suggests new possibilities for an extremely important technological group of materials," said Jiaze Xie (Ph.D. '22, now at Princeton), the first author on the paper.

[...] Xie began experimenting with some materials discovered years ago, but largely ignored. He strung nickel atoms like pearls into a string of of molecular beads made of carbon and sulfur, and began testing. To the scientists' astonishment, the material easily and strongly conducted electricity. What's more, it was very stable. "We heated it, chilled it, exposed it to air and humidity, and even dripped acid and base on it, and nothing happened," said Xie. That is enormously helpful for a device that has to function in the real world. But to the scientists, the most striking thing was that the molecular structure of the material was disordered. "From a fundamental picture, that should not be able to be a metal," said Anderson. "There isn't a solid theory to explain this."

Xie, Anderson, and their lab worked with other scientists around the university to try to understand how the material can conduct electricity. After tests, simulations, and theoretical work, they think that the material forms layers, like sheets in a lasagna. Even if the sheets rotate sideways, no longer forming a neat lasagna stack, electrons can still move horizontally or vertically -- as long as the pieces touch. The end result is unprecedented for a conductive material. "It's almost like conductive Play-Doh -- you can smush it into place and it conducts electricity," Anderson said. The scientists are excited because the discovery suggests a fundamentally new design principle for electronics technology. Conductors are so important that virtually any new development opens up new lines for technology, they explained.
The report says the new material "can be made at room temperatures" and "can also be used where the need for a device or pieces of the device to withstand heat, acid or alkalinity, or humidity has previously limited engineers' options to develop new technology."

Xie added: "We think we can make it 2D or 3D, make it porous, or even introduce other functions by adding different linkers or nodes."
Saludos.
Título: Re:STEM
Publicado por: wanderer en Noviembre 02, 2022, 13:38:10 pm
Para relajarnos un poco y porque soy bastante friki, les traigo esto sobre las limitaciones de las IA's para contextualizar personajes de anime dentro de la vida real:

Citar
Kaguya-sama: Las IA no pueden dibujar a Chika comiendo ramen
https://somoskudasai.com/noticias/cultura-otaku/kaguya-sama-las-ia-no-pueden-dibujar-a-chika-comiendo-ramen/ (https://somoskudasai.com/noticias/cultura-otaku/kaguya-sama-las-ia-no-pueden-dibujar-a-chika-comiendo-ramen/)

(https://somoskudasai.com/wp-content/uploads/2022/10/Ff5qkyIaUAAZ5s_.png)

 :troll:

En todo caso, eso ocurre porque a esas IA's tienen un entrenamiento trolleado. Imaginemos, por un imaginar, las ilimitadas posibilidades que tiene eso en ciertas manos.

En cuanto a ése anime, es divertidísimo, y a la chica que traigo la han traído porque es carne de todo tipo de memes.
Título: Re:STEM
Publicado por: sudden and sharp en Noviembre 02, 2022, 14:23:16 pm
Es lo que tiene adorar a falsos ídolos... (Hablo de manga, no de anime.)





Eso no pasa con el comic europeo. Por cierto, desde cuándo el big data es ia.
Título: Re:STEM
Publicado por: Rui Brennan en Noviembre 02, 2022, 16:03:02 pm
Para relajarnos un poco y porque soy bastante friki, les traigo esto sobre las limitaciones de las IA's para contextualizar personajes de anime dentro de la vida real:

Citar
Kaguya-sama: Las IA no pueden dibujar a Chika comiendo ramen
https://somoskudasai.com/noticias/cultura-otaku/kaguya-sama-las-ia-no-pueden-dibujar-a-chika-comiendo-ramen/ (https://somoskudasai.com/noticias/cultura-otaku/kaguya-sama-las-ia-no-pueden-dibujar-a-chika-comiendo-ramen/)

 :troll:

En todo caso, eso ocurre porque a esas IA's tienen un entrenamiento trolleado. Imaginemos, por un imaginar, las ilimitadas posibilidades que tiene eso en ciertas manos.

En cuanto a ése anime, es divertidísimo, y a la chica que traigo la han traído porque es carne de todo tipo de memes.

Veo tu imagen... y subo a un oneshot (disculpen, no he podido aguantarlo  :biggrin:):

https://old.reddit.com/r/manga/comments/yjp9tj/disc_my_girlfriend_is_aidrawn_a_oneshot_by_h071019/
Título: Re:STEM
Publicado por: wanderer en Noviembre 02, 2022, 17:00:43 pm
Para relajarnos un poco y porque soy bastante friki, les traigo esto sobre las limitaciones de las IA's para contextualizar personajes de anime dentro de la vida real:

Citar
Kaguya-sama: Las IA no pueden dibujar a Chika comiendo ramen
https://somoskudasai.com/noticias/cultura-otaku/kaguya-sama-las-ia-no-pueden-dibujar-a-chika-comiendo-ramen/ (https://somoskudasai.com/noticias/cultura-otaku/kaguya-sama-las-ia-no-pueden-dibujar-a-chika-comiendo-ramen/)

 :troll:

En todo caso, eso ocurre porque a esas IA's tienen un entrenamiento trolleado. Imaginemos, por un imaginar, las ilimitadas posibilidades que tiene eso en ciertas manos.

En cuanto a ése anime, es divertidísimo, y a la chica que traigo la han traído porque es carne de todo tipo de memes.

Veo tu imagen... y subo a un oneshot (disculpen, no he podido aguantarlo  :biggrin:):

https://old.reddit.com/r/manga/comments/yjp9tj/disc_my_girlfriend_is_aidrawn_a_oneshot_by_h071019/

Buenísimo  :biggrin:
Título: Re:STEM
Publicado por: sudden and sharp en Noviembre 04, 2022, 19:40:48 pm
(https://images.ecestaticos.com/8bFhvrT4UCd8iT2XWxk31d1J2BI=/0x0:1920x1080/972x547/filters:fill(white):format(jpg)/f.elconfidencial.com%2Foriginal%2F29e%2Fc00%2Fd27%2F29ec00d27abc750208491e1c551a79f8.jpg)



El reactor nuclear en miniatura que abre la puerta a una nueva fuente energética
https://www.elconfidencial.com/tecnologia/novaceno/2022-11-04/nuevo-reactor-nuclear-sal-totalmente-seguro_3516620/ (https://www.elconfidencial.com/tecnologia/novaceno/2022-11-04/nuevo-reactor-nuclear-sal-totalmente-seguro_3516620/)
Citar
La solución de los investigadores estadounidenses no necesita agua, ya que los elementos radiactivos se almacenan en sal fundida en lugar de en barras de combustible. La sal, dice el equipo, tiene una temperatura de fusión extremadamente alta (550 grados celsius) y al entrar en contacto con los residuos radioactivos hace que la temperatura de estos descienda rápidamente por debajo del punto de fusión. Cuando la sal se cristaliza absorbe el calor, evitando el peligro de una fusión del núcleo.




Es lo que pasa cuando los productores de energía barata, se ponen interesantes... Los demás empiezan entonces a buscar alternativas. No puedo saberlo, pero me da que estas son las sales que también se utilizan para almacenar energía eolica y solar.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 06, 2022, 20:33:08 pm
https://elpais.com/ciencia/2022-11-05/valter-longo-el-ayuno-nos-puede-ayudar-a-vivir-20-anos-mas.html

(https://i.imgur.com/Zz9YSkA.jpg)

Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Noviembre 06, 2022, 22:13:19 pm
https://elpais.com/ciencia/2022-11-05/valter-longo-el-ayuno-nos-puede-ayudar-a-vivir-20-anos-mas.html

(https://i.imgur.com/Zz9YSkA.jpg)

Saludos.



30.000 años luchando como fieras contra el hambre... hasta que llegó el listillo. (Que coman pasteles... dijo la otra. Pues anda que éste.)
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 14, 2022, 19:27:50 pm
Citar
Scientists Manufacture Material in a Lab That Doesn't Exist on Earth ([url]https://news.slashdot.org/story/22/11/14/052251/scientists-manufacture-material-in-a-lab-that-doesnt-exist-on-earth[/url])
Posted by EditorDavid on Monday November 14, 2022 @07:34AM from the out-of-this-world dept.

NPR reports that "two teams of scientists — one at Northeastern University ([url]https://news.northeastern.edu/2022/10/17/rare-earths-crisis/[/url]) in Boston; the other at the University of Cambridge in the UK ([url]https://www.cam.ac.uk/research/news/new-approach-to-cosmic-magnet-manufacturing-could-reduce-reliance-on-rare-earths-in-low-carbon[/url]) — recently announced that they managed to manufacture, in a lab, a material that does not exist naturally on Earth ([url]https://www.npr.org/sections/money/2022/11/08/1134461777/they-made-a-material-that-doesnt-exist-on-earth-thats-only-the-start-of-the-stor[/url])."

"It — until now — has only been found in meteorites."
Citar
We spoke to Laura Henderson Lewis, one of the professors on the Northeastern team, and she told us the material found in the meteorites is a combination of two base metals, nickel and iron, which were cooled over millions of years as meteoroids and asteroids tumbled through space. That process created a unique compound with a particular set of characteristics that make it ideal for use in the high-end permanent magnets that are an essential component of a vast range of advanced machines, from electric vehicles to space shuttle turbines.

The compound is called tetrataenite ([url]http://www.webmineral.com/data/Tetrataenite.shtml[/url]), and the fact that scientists have found a way to make it in a lab is a huge deal. If synthetic tetrataenite works in industrial applications, it could make green energy technologies significantly cheaper. It could also roil the market in rare earths, currently dominated by China ([url]https://www.iea.org/reports/the-role-of-critical-minerals-in-clean-energy-transitions/executive-summary[/url]), and create a seismic shift in the industrial balance between China and the West....

But it will be a long time before tetrataenite is in a position to disrupt any existing markets, Laura Lewis says. She says there is still a lot of testing to be done to find out whether lab tetrataenite is as hardy and as useful as the outer space material. And even if it turns out to be as good, it will be five to eight years "pedal to the metal" before anyone could make permanent magnets out of it. In the meantime, China's competitors are working hard to source rare earths of their own. The US is investing in mines in Australia ([url]https://www.reuters.com/markets/us/australias-lynas-secures-120-mln-pentagon-contract-us-rare-earths-facility-2022-06-14/[/url]); there's exploration ongoing in Malaysia ([url]https://www.mida.gov.my/gearing-malaysia-as-a-rare-earth-elements-rees-powerhouse/[/url]), and the Japanese are researching ways to extract elements from mud mined from the sea bed ([url]https://www.science.org/content/article/global-trove-rare-earth-metals-found-japans-deep-sea-mud[/url]).

Saludos.
Título: Re:STEM
Publicado por: saturno en Noviembre 14, 2022, 21:08:13 pm
@Cadavre, a ver si este articulo vale la pena que sigue en los links ?
https://elpais.com/elpais/2015/09/26/ciencia/1443295561_195929.html#?rel=lom
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 15, 2022, 08:07:51 am
Citar
8.000 millones de seres humanos en el Planeta Tierra (incluyendo diez que están en el espacio) (https://www.microsiervos.com/archivo/mundoreal/8000-millones-seres-humanos-planeta-tierra.html)
POR @ALVY (https://twitter.com/alvy) — 13 DE NOVIEMBRE DE 2022

(https://i.imgur.com/PyLHQQ1.jpg)
El planeta Tierra, con un eclipse sobre la Antártida / Foto (DP) NASA & DSCOVR EPIC

En menos de 24 horas vamos a ser 8.000.000.000 seres humanos en el Planeta Tierra. Con nuestras alegrías, penas, amores, absurdeces y problemas… Este hito del MundoReal™ puede consultar uno de los contadores más conocidos, la clásica página del Worldometer (https://www.worldometers.info/), donde se ve cómo la cifra aumenta y aumenta rápida e inexorablemente hasta la redonda cifra.

(https://i.imgur.com/Mq2HrcR.jpg)

Y es que parece que fue ayer –que en realidad fue hace 11 años– cuando sobrepasamos otra cifra redonda: 7.000 millones (https://www.microsiervos.com/archivo/mundoreal/7000-millones-humanos.html). Para quien quiera hacerse una idea de cuánto espacio ocuparíamos ahora mismo si nos pusieran a todos juntos, juntitos, la gente de Meatball Studios creó una curiosa visualización (https://www.microsiervos.com/archivo/mundoreal/cuanto-ocuparian-8000-millones-personas.html). En realidad era una superficie de unos 82 x 29 km², tampoco parece tanto, aunque íbamos a estar como en el Metro a la hora punta de ir a la oficina.

A este ritmo seguramente necesitaremos menos de una década para superar los 9.000 millones, y otra más para redondear a los 10.000 millones, momento en el que podremos hacer una gran fiesta… Si es que todavía tenemos planeta, que a este paso no se yo.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 15, 2022, 08:18:48 am
@Cadavre, a ver si este articulo vale la pena que sigue en los links ?
[url]https://elpais.com/elpais/2015/09/26/ciencia/1443295561_195929.html#?rel=lom[/url] ([url]https://elpais.com/elpais/2015/09/26/ciencia/1443295561_195929.html#?rel=lom[/url])

Citar
El libro 'Ja', escrito por un neurocientífico, repasa la ciencia de cuándo reímos y por qué ([url]https://elpais.com/elpais/2015/09/26/ciencia/1443295561_195929.html[/url])
Manuel Ansede | 27 sept 2015

([url]https://i.imgur.com/hEH1iVR.jpg[/url])
El pato es el animal más gracioso, según un estudio científico.
Reuters
El martes 30 de enero de 1962, tres alumnas de un internado religioso femenino en Kashasha (Tanzania) se echaron a reír. Su risa era tan contagiosa que las compañeras con las que se iban cruzando también se echaban a reír. La risa se propagaba aula tras aula, hasta infectar a la mitad de los presentes en el colegio. Casi un centenar de personas no podían parar de reír. Pasaron semanas y la gente se seguía riendo. La escuela tuvo que cerrar. Las chicas que regresaban a sus casas en otros pueblos contagiaban a sus vecinos. La epidemia de risa llegó a Nshamba, un pueblo de 10.000 habitantes, donde centenares de personas se echaron a reír. En total, 14 escuelas tuvieron que cerrar y 1.000 personas sufrieron brotes de risa incontenibles. La epidemia desapareció 18 meses después de su inicio y quedó descrita en un estudio científico de 1963 ([url]http://www.ncbi.nlm.nih.gov/pubmed?cmd=Retrieve&list_uids=13973013[/url]) publicado en la revista especializada Central African Journal of Medicine.

El caso lo recuerda el neurocientífico Scott Weems ([url]http://www.scottweems.com/[/url]) en su libro Ja. La ciencia de cuándo reímos y por qué, publicado por la editorial Taurus. “Ja trata de una idea. La idea es que el humor y su síntoma más corriente —la risa— son productos derivados de poseer un cerebro que se basa en el conflicto”, escribe Weems. El cerebro humano, explica, se adelanta constantemente a los acontecimientos y genera hipótesis. “Sin embargo, a veces conduce al conflicto, por ejemplo cuando intentamos sostener dos o más ideas contradictorias al mismo tiempo. Cuando eso ocurre, a nuestro cerebro solo se le ocurre una cosa: reírse”.

Apoyado en una bibliografía de 135 estudios científicos, Weems describe el humor como “nuestra respuesta natural al conflicto y a la confusión”. El neurocientífico, formado en la Universidad de California en Los Ángeles (EE UU), recuerda que, tan solo una semana después de los atentados del 11 de septiembre de 2001, el humorista Gilbert Gottfried actuaba en el Friar’s Club de Nueva York. En la ciudad todavía olía a quemado. Los colegas que le habían precedido en el escenario no habían tocado el tema de los ataques terroristas. Se habían limitado a bromear sobre el tamaño del pene del invitado de honor de la noche, el fundador de la revista Playboy, Hugh Hefner. Pero Gottfried se vino arriba cuando el público celebró uno de sus chistes sobre musulmanes. Asomado al micrófono, proclamó:

Citar
Una epidemia de risa en Tanzania en 1962 obligó a cerrar 14 escuelas y afectó a un millar de personas

—Esta noche tengo que irme pronto. Tengo que volar a Los Ángeles. No he podido conseguir un vuelo directo y he de hacer escala en el Empire State Building.

Todo el mundo se quedó sin respiración. Al silencio siguieron los abucheos y los gritos de “¡Todavía es muy pronto para bromear sobre eso!”. Gottfried, un humorista con dos décadas de experiencia sobre el escenario, se enfrentaba a un público indignado, pero no se amilanó. Mirando a los asistentes, comenzó un nuevo chiste:

—Muy bien. Un descubridor de talentos está sentado en su oficina . Entra una familia: un hombre, una mujer, dos hijos y un perrito. Así que el descubridor de talentos pregunta: “¿Qué clase de espectáculo hacen?”.

Lo que siguió fue una sucesión de escatología, bestialismo, incesto y sexo depravado sin tabúes, “literalmente el chiste más guarro del mundo”, según Weems. El público estalló en carcajadas. “La actuación fue tan memorable que alguien realizó una película sobre el chiste, con la actuación de Gottfried como clímax, titulada Los aristócratas ([url]https://www.youtube.com/watch?v=dnbHGmd8XNE[/url])”, rememora.

¿Cuándo se puede bromear sobre una tragedia? ¿Dónde están los límites del humor? Weems recuerda que en 1986, después de la explosión del transbordador espacial Challenger con siete tripulantes a bordo, se hizo muy popular un chiste: “¿Qué significan las siglas NASA? Necesitamos Ahora Siete Astronautas”. Un estudio ([url]https://scholarworks.iu.edu/dspace/handle/2022/7195[/url]) mostró que los chistes sobre la tragedia surgieron unos 17 días después del accidente. La muerte de la princesa Diana de Gales tuvo un periodo de latencia más corto. Y el de los ataques terroristas del 11-S fue mucho más largo. El autor del estudio, Bill Ellis, de la Universidad del Estado de Pensilvania, clasificó los chistes sobre el Challenger ([url]http://www.academia.edu/1129083/The_Last_Thing_..._Said_The_Challenger_Disaster_Jokes_and_Closure[/url]) por fecha y lugar de aparición. El accidente fue el 28 de enero de 1986. El 22 de febrero, en la ciudad de Shippensburg se contaba este chiste: ¿Sabes cuál es la bebida oficial de la Nasa? Seven Up (siete arriba, en inglés).

Citar
Los chistes sobre la tragedia del 'Challenger' surgieron unos 17 días después del accidente

“Nuestra fascinación por el humor negro la demuestra la inmensa variedad de chistes de mal gusto: los que tienen con ver con el Challenger, el sida y Chernóbil, por nombrar solo unos pocos”, narra Weems. Armado con publicaciones en revistas especializadas, el neurocientífico sostiene que el humor negro no es cruel. “Inventar alternativas que expliquen el acrónimo sida resulta divertido para algunas personas, pero chillar ¡Ja, ja, estás enfermo! en un pabellón oncológico no resulta gracioso a nadie. Nos reímos de los chistes acerca de grupos o sucesos sólo cuando provocan reacciones emocionales complejas, porque sin esas reacciones no tenemos otra forma de responder”, reflexiona.

“No hay un solo chiste que le agrade a todo el mundo. El humor es idiosincrásico porque depende de aquello que hace que todos seamos únicos: cómo nos enfrentamos a la discrepancia que reina en nuestro complejo cerebro”, subraya. La mejor prueba es un experimento llevado a cabo por el psicólogo Richard Wiseman, de la Universidad de Hertfordshire (Reino Unido). En 2001 abrió una web con la ayuda de la Asociación Británica para el Progreso de la Ciencia, con el objetivo de encontrar el chiste más gracioso del mundo ([url]http://www.richardwiseman.com/LaughLab/introduction.html[/url]). Recibió unos 40.000 chistes y un millón y medio de votaciones. El ganador fue:

Dos cazadores de Nueva Jersey caminan por un bosque cuando uno de ellos se desploma. Da la impresión de que no respira y tiene los ojos vidriosos. El otro coge el teléfono y llama al servicio de emergencias. Dice con voz entrecortada: “¡Creo que mi amigo está muerto! ¿Qué debo hacer?”. El operador le contesta: “Cálmese. Le ayudaré. En primer lugar, asegúrese de que está muerto”. Hay un silencio y a continuación se oye un disparo. De nuevo al teléfono, el cazador dice: “Muy bien, y ahora ¿qué?”.

El chiste más gracioso del mundo no tiene mucha gracia, coinciden Wiseman y Weems, y eso tiene una explicación científica. “Como no a todo el mundo le gusta por igual que los chistes sean provocadores, los más populares suelen agruparse cerca, aunque todavía debajo, del umbral de provocación más habitual. Si un chiste lo sobrepasa con mucho, algunas personas se troncharán de risa y otras no se reirán nada. Si queda demasiado corto, todos permanecerán fríos”, expone Weems.

Citar
El animal más gracioso es el pato y la hora más descacharrante del día son las 18:03, según un estudio

El experimento de Wiseman sirvió para extraer unas cuantas conclusiones sobre los chistes. Los más divertidos tenían un promedio de 103 letras. El animal más gracioso era el pato. La hora más descacharrante del día son las 18:03. Y el día más chistoso del mes es el 15. En cuanto a nacionalidades, los estadounidenses mostraron “una clara afinidad por los chistes que incluían insultos o vagas amenazas”. Este chiste en inglés sobre un tejano y un graduado en Harvard fue muy apreciado en EE UU y poco fuera de sus fronteras:

—Tejano: ¿De dónde eres? (Where are you from?)

—Graduado de Harvard: De un lugar donde no terminamos las frases con una preposición.

—Tejano: Muy bien, ¿de dónde eres, gilipollas? (Ok, where are you from, jackass?)

Los europeos, en cambio, mostraron predilección por chistes absurdos o surrealistas, como este:

Un paciente dice: “Doctor, ayer noche tuve un lapsus freudiano. Estaba cenando con mi suegra y quise decir: “¿Podrías pasarme la mantequilla?”. Pero en lugar de eso dije: “Vaca estúpida, me has destrozado completamente la vida”.

Este otro chiste gustó a más de la mitad de los hombres, pero solo a un 15% de las mujeres:

Un agente de policía para a un hombre que va por la autopista. El agente le pregunta: “¿Sabe que su mujer y su hijo se han caído del coche hace un kilómetro?”. El hombre sonríe y exclama: “¡Gracias a Dios! ¡Pensaba que me estaba quedando sordo!”.

“El humor —especialmente el humor ofensivo— es idiosincrásico. Cada uno posee su propio umbral de lo que considera ofensivo y reacciona de manera muy diferente cuando se cruza ese umbral”, afirma Weems. En las páginas de Ja, el neurocientífico recuerda la teoría del médico Sigmund Freud de que el humor es nuestra manera de resolver el conflicto interior y la ansiedad. “Aunque hoy en día pocos científicos se toman en serio a Freud, casi todos reconocen que hay al menos algo de verdad en su teoría. Los chistes que no consiguen ni siquiera incomodarnos un poco no triunfan. Es el conflicto de querer reír, y al mismo tiempo no estar seguro de si deberíamos, lo que hace que los chistes sean satisfactorios”, señala Weems.

En cuanto a la epidemia de risa de Tanzania, el autor cree que “sería fácil afirmar que las niñas simplemente experimentaron una crisis nerviosa”. Una interpretación sostiene que sufrieron una histeria colectiva causada por la tensión de un gran cambio social. En diciembre de 1961, el país se había independizado de Reino Unido y la escuela había abandonado la segregación racial. Además, las alumnas eran adolescentes, en plena pubertad, y las presiones eran tremendas, según destaca Weems.

“Al pedirles que vivieran en dos mundos a la vez —ni británico ni africano, ni blanco ni negro, ni adulto ni niño, sino una combinación de ambas cosas— no consiguieron salir adelante. Pero la risa no es una crisis nerviosa. [...] Es un mecanismo de pugna, una manera de afrontar el conflicto. A veces ese conflicto se presenta en forma de chiste. A veces es algo más complicado”.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 16, 2022, 07:49:15 am
Citar
MIT solved a century-old differential equation to break 'liquid' AI's computational bottleneck (https://www.engadget.com/mit-century-old-differential-equation-liquid-ai-computational-bottleneck-160035555.html)
The discovery could usher in a new generation of weather forecasting and autonomous vehicle driving virtual agents.

A. Tarantola | @terrortola (https://www.twitter.com/terrortola) | November 15, 2022

(https://i.imgur.com/uH5HtVd.jpg)
IGphotography via Getty Images

Last year, MIT developed an AI/ML algorithm capable of learning and adapting to new information while on the job, not just during its initial training phase. These “liquid” neural networks (https://news.mit.edu/2021/machine-learning-adapts-0128) (in the Bruce Lee (https://www.youtube.com/watch?v=cJMwBwFj5nQ) sense) literally play 4D chess — their models requiring time-series data (https://www.influxdata.com/what-is-time-series-data/) to operate — which makes them ideal for use in time-sensitive tasks like pacemaker monitoring, weather forecasting, investment forecasting, or autonomous vehicle navigation. But, the problem is that data throughput has become a bottleneck, and scaling these systems has become prohibitively expensive, computationally speaking.

On Tuesday, MIT researchers announced that they have devised a solution to that restriction, not by widening the data pipeline but by solving a differential equation that has stumped mathematicians since 1907. Specifically, the team solved, “the differential equation behind the interaction of two neurons through synapses… to unlock a new type of fast and efficient artificial intelligence algorithms.”

“The new machine learning models we call ‘CfC’s’ [closed-form Continuous-time] replace the differential equation defining the computation of the neuron with a closed form approximation, preserving the beautiful properties of liquid networks without the need for numerical integration,” MIT professor and CSAIL Director Daniela Rus said in a Tuesday press statement. “CfC models are causal, compact, explainable, and efficient to train and predict. They open the way to trustworthy machine learning for safety-critical applications.”

So, for those of us without a doctorate in Really Hard Math, differential equations are formulas that can describe the state of a system at various discrete points or steps throughout the process. For example, if you have a robot arm moving from point A to B, you can use a differential equation to know where it is in between the two points in space at any given step within the process. However, solving these equations for every step quickly gets computationally expensive as well. MIT’s “closed form” solution end-arounds that issue by functionally modeling the entire description of a system in a single computational step. AS the MIT team explains:

Citar
Imagine if you have an end-to-end neural network that receives driving input from a camera mounted on a car. The network is trained to generate outputs, like the car's steering angle. In 2020, the team solved this by using liquid neural networks with 19 nodes, so 19 neurons plus a small perception module could drive a car. A differential equation describes each node of that system. With the closed-form solution, if you replace it inside this network, it would give you the exact behavior, as it’s a good approximation of the actual dynamics of the system. They can thus solve the problem with an even lower number of neurons, which means it would be faster and less computationally expensive.
By solving this equation at the neuron-level, the team is hopeful that they’ll be able to construct models of the human brain that measure in the millions of neural connections, something not possible today. The team also notes that this CfC model might be able to take the visual training it learned in one environment and apply it to a wholly new situation without additional work, what’s known as out-of-distribution generalization (https://towardsdatascience.com/out-of-distribution-generalization-66b6f8980ef3). That’s not something current-gen models can really do and would prove to be a significant step towards the generalized AI systems of tomorrow.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 23, 2022, 23:26:26 pm
(https://i.imgur.com/toLS3Bo.png)
https://twitter.com/polynoamial/status/1595076658805248000 (https://twitter.com/polynoamial/status/1595076658805248000)

(https://i.imgur.com/ouyjVWa.png)
https://twitter.com/polynoamial/status/1595474770182676480 (https://twitter.com/polynoamial/status/1595474770182676480)

Citar
CICERO: An AI agent that negotiates, persuades, and cooperates with people (https://ai.facebook.com/blog/cicero-ai-negotiates-persuades-and-cooperates-with-people/)
November 22, 2022

(https://i.imgur.com/GVVmKja.gif)

Games have long been a proving ground for new AI advancements — from Deep Blue’s victory over chess grandmaster Garry Kasparov, to AlphaGo’s mastery of Go, to Pluribus out-bluffing the best humans in poker. But truly useful, versatile agents will need to go beyond just moving pieces on a board. Can we build more effective and flexible agents that can use language to negotiate, persuade, and work with people to achieve strategic goals similar to the way humans do?

Today, we’re announcing a breakthrough toward building AI that has mastered these skills. We’ve built an agent – CICERO – that is the first AI to achieve human-level performance in the popular strategy game Diplomacy*. CICERO demonstrated this by playing on webDiplomacy.net, an online version of the game, where CICERO achieved more than double the average score of the human players and ranked in the top 10 percent of participants who played more than one game.

Diplomacy has been viewed for decades as a near-impossible grand challenge in AI because it requires players to master the art of understanding other people’s motivations and perspectives; make complex plans and adjust strategies; and then use natural language to reach agreements with other people, convince them to form partnerships and alliances, and more. CICERO is so effective at using natural language to negotiate with people in Diplomacy that they often favored working with CICERO over other human participants.

Unlike games like Chess and Go, Diplomacy is a game about people rather than pieces. If an agent can't recognize that someone is likely bluffing or that another player would see a certain move as aggressive, it will quickly lose the game. Likewise, if it doesn't talk like a real person -- showing empathy, building relationships, and speaking knowledgeably about the game -- it won't find other players willing to work with it.

(https://i.imgur.com/gtiJa76.png)

The key to our achievement was developing new techniques at the intersection of two completely different areas of AI research: strategic reasoning, as used in agents like AlphaGo and Pluribus, and natural language processing, as used in models like GPT-3, BlenderBot 3, LaMDA, and OPT-175B. CICERO can deduce, for example, that later in the game it will need the support of one particular player, and then craft a strategy to win that person’s favor – and even recognize the risks and opportunities that that player sees from their particular point of view.

(https://i.imgur.com/UYDEdLE.png)

We’ve open-sourced the code and published a paper to help the wider AI community use CICERO to spur further progress in human-AI cooperation. You can also visit the CICERO website to learn more about the project and see the agent in action. Interested researchers can submit a proposal to the CICERO RFP to gain access to the data.

Under the hood: How we built CICERO

At the heart of CICERO is a controllable dialogue model for Diplomacy coupled with a strategic reasoning engine. At each point in the game, CICERO looks at the game board and its conversation history, and models how the other players are likely to act. It then uses this plan to control a language model that can generate free-form dialogue, informing other players of its plans and proposing reasonable actions for the other players that coordinate well with them.

Controllable dialogue
To build a controllable dialogue model, we started with a 2.7 billion parameter BART-like language model pre-trained on text from the internet and fine tuned on over 40,000 human games on webDiplomacy.net. We developed techniques to automatically annotate messages in the training data with corresponding planned moves in the game, so that at inference time we can control dialogue generation to discuss specific desired actions for the agent and its conversation partners. For example, if our agent is playing as France, conditioning the dialogue model on a plan involving England supporting France into Burgundy might yield a message to England like, “Hi England! Are you willing to support me into Burgundy this turn?” Controlling generation in this manner allows Cicero to ground its conversations in a set of plans that it develops and revises over time to better negotiate. This helps the agent coordinate with and persuade other players more effectively.

Step 1 Using the board state and current dialogue, Cicero makes an initial prediction of what everyone will do.

(https://i.imgur.com/Jvry4Y7.png)

Step 2 CICERO iteratively refines that prediction using planning and then uses those predictions to form an intent for itself and its partner.

(https://i.imgur.com/4P3iElL.png)

Step 3 It generates several candidate messages based on the board state, dialogue, and its intents.

(https://i.imgur.com/5X9ZC4M.png)

Step 4 It filters the candidate message to reduce nonsense, maximize value, and ensure consistency with our intents.

(https://i.imgur.com/yX6kr2A.png)

We further improve dialogue quality using several filtering mechanisms – such as classifiers trained to distinguish between human and model-generated text – that ensure that our dialogue is sensible, consistent with the current game state and previous messages, and strategically sound.

Dialogue-aware strategy & planning
Past superhuman agents in adversarial games like chess, Go, and poker were created through self-play reinforcement learning (RL) – having the agents learn optimal policies by playing millions of games against other copies of itself. However, games involving cooperation require modeling what humans will actually do in real life, rather than modeling what they should do if they were perfect copies of the bot. In particular, we want CICERO to make plans that are consistent with its dialogue with other players.

The classic approach to human modeling is supervised learning, where the agent is trained with labeled data such as a database of human players’ actions in past games. However, relying purely on supervised learning to choose actions based on past dialogue results in an agent that is relatively weak and highly exploitable. For example, a player could tell the agent, "I'm glad we agreed that you will move your unit out of Paris!" Since similar messages appear in the training data only when an agreement was reached, the agent might indeed move its unit out of Paris even if doing so is a clear strategic blunder.

To fix this, CICERO runs an iterative planning algorithm that balances dialogue consistency with rationality. The agent first predicts everyone's policy for the current turn based on the dialogue it has shared with other players, and also predicts what other players think the agent's policy will be. It then runs a planning algorithm we developed called piKL, which iteratively improves these predictions by trying to choose new policies that have higher expected value given the other players' predicted policies, while also trying to keep the new predictions close to the original policy predictions. We found that piKL better models human play and leads to better policies for the agent compared to supervised learning alone.

(https://i.imgur.com/uiC3hCh.png)

Generating natural, purposeful dialogue
In Diplomacy, how a player talks to other people can be even more important than how they move their pieces. CICERO is able to speak clearly and persuasively when strategizing with other players. For example, in one demonstration game CICERO asked one player for immediate support on one part of the board while pressing another to consider an alliance later in the game.

(https://i.imgur.com/M1IAIEl.gif)

In these exchanges, CICERO tries to execute its strategy by proposing moves to three different players. In the second dialog, the agent is able to tell the other player why they should cooperate and how it will be mutually beneficial. In the third, CICERO is both soliciting information and setting the groundwork for future moves.

Where there is still room for improvement

It is important to recognize that CICERO also sometimes generates inconsistent dialogue that can undermine its objectives. In the example below where CICERO was playing as Austria, the agent contradicts its first message asking Italy to move to Venice. While our suite of filters aims to detect these sorts of mistakes, it is not perfect.

(https://i.imgur.com/GDFgFCv.png)

Diplomacy as a sandbox for advancing human-AI interaction

The emergence of goal-oriented dialogue systems in a game that involves both cooperation and competition raises important social and technical challenges in aligning AI with human intentions and objectives. Diplomacy provides a particularly interesting environment for studying this because playing the game requires wrestling with conflicting objectives and translating those complex goals into natural language. As a simple example, a player might choose to compromise on short term gains in order to maintain an ally, on the chance that this ally will help them into an even better position on the next turn.

While we’ve made significant headway in this work, both the ability to robustly align language models with specific intentions and the technical (and normative) challenge of deciding on those intentions remain open and important problems. By open sourcing the CICERO code, we hope that AI researchers can continue to build off our work in a responsible manner. We have made early steps towards detecting and removing toxic messages in this new domain by using our dialogue model for zero-shot classification. We hope Diplomacy can serve as a safe sandbox to advance research in human-AI interaction.

Future directions

While CICERO is only capable of playing Diplomacy, the technology behind this achievement is relevant to many real world applications. Controlling natural language generation via planning and RL, could, for example, ease communication barriers between humans and AI-powered agents. For instance, today's AI assistants excel at simple question-answering tasks, like telling you the weather, but what if they could maintain a long-term conversation with the goal of teaching you a new skill? Alternatively, imagine a video game in which the non player characters (NPCs) could plan and converse like people do — understanding your motivations and adapting the conversation accordingly — to help you on your quest of storming the castle.

We’re excited about the potential for future advances in these areas and seeing how others build on our research.

Read the paper (https://www.science.org/doi/10.1126/science.ade9097)
Visit the CICERO site (https://ai.facebook.com/research/cicero/)
Learn about the RFP (https://ai.facebook.com/research/request-for-proposal/towards-human-AI-cooperation/)

We’d like to acknowledge the contributions of a broad team to this work: Anton Bakhtin, Noam Brown, Emily Dinan, Gabriele Farina, Colin Flaherty, Daniel Fried, Andrew Goff, Jonathan Gray, Hengyuan Hu, Athul Paul Jacob, Mojtaba Komeili, Karthik Konath, Adam Lerer, Mike Lewis, Alexander H. Miller, Sasha Mitts, Adithya Renduchintala, Stephen Roller, Dirk Rowe, Weiyan Shi, Joe Spisak, Alexander Wei, David Wu, Hugh Zhang, Markus Zijlstra, Ana Paula Kirschner Mofarrej, Anne Davidson, Oliver Libaw, Amanda Felix, Karla Caraballo-Torres, Christopher Johnson, Lydia Baillergeau, Julia Vargas, Eric Kaplan, Raghu Nayani, Aiman Farooq, Andrea Cheung, Emily Astbury, Gopika Jhala, Jon Carvill, Jon Shepard, Josh Terry, Marina Zannoli, Nathan Riley, Michelle Restrepo, Noah Rizk, Ritika Trikha, Steph Miles, Tamara Piksa, Zara Blum, Daniel Duncan, Antoine Bordes, Laurens van der Maaten, Alex Boesenberg, Korey Anvaripour, Somya Jain, Harrison Rudolph, Michael Friedrichs, Elisabeth Sperle, and Cesar Guiterrez.

* All rights in Diplomacy are owned by Hasbro, Inc.
(https://i.imgur.com/cSYzivC.png) (https://www.youtube.com/watch?v=u5192bvUS7k)
DiploStrats | Expert Diplomacy Player vs CICERO AI (https://www.youtube.com/watch?v=u5192bvUS7k)

Saludos.
Título: Re:STEM
Publicado por: Saturio en Noviembre 25, 2022, 13:06:59 pm
Ya me gustaría echar una partida a Diplomacy con una IA aunque es mucho más divertida (y caótica) su versión "avanzada" y tematizada en el Renacimiento italiano "Machiavelli" en la que puedes sobornar los ejércitos de los demás.

No sé lo que habrán hecho con la IA. Los americanos juegan raro a esos juegos y de verdad llegan a pactos y acuerdos. Con toda la gente que he conocido el juego realmente trata de evitar ser traicionado o atacado de forma sorpresiva.

Diplomacy es un juego con poca "niebla" para ser un buen juego de diplomacia. Toda la información está disponible para todos los jugadores excepto las órdenes de los ejércitos que se resuelven cada turno. No puedes ocultar ninguna información a tus oponentes o engañarles con información falsa. En Machiavelli puedes un poco porque hay "finanzas" (aunque te pueden controlar en función de lo que vas gastando cuánto dinero tienes) que no son abiertas. Puedes amenazar a alguien con que tienes 30 ducados ahorrados, por ejemplo o crear todo un plot en el que supuestamente ayudarás a alguien porque tienes dinero para comprar ejércitos... En fin que Diplomacy no es el juego diplomático mítico que algunos dicen. Eso sí, es de los primeros y el que tiene la palabra diplomacia en el nombre.

En teoría de juegos sería un juego en el que todos tienen información perfecta (Sabes todas "las manos") pero no sabes cuales son las jugadas (como si todos sacasen la carta a la vez). En la fase de diplomacia, viendo todas las manos y sabiendo que todos las ven, lo que se intenta es un acuerdo sobre lo que se va a jugar, teniendo en cuenta que al final del juego sólo hay un ganador (otra cosa que limita las opciones diplomáticas).

Otra cosa que se experimenta durante el juego es que como todas las aperturas son iguales (El juego siempre tiene las mismas manos iniciales y las siguientes manos dependen de la resolución de las anteriores). Hay cosas ya predestinadas como que Austria o Italia jamás van a ganar que gane Alemania es medio imposible.
Diplomacy no es muy rejugable, la verdad, porque esas cosas las detectas claramente tras tres partidas. Por eso siempre ha habido gente que ha creado sus versiones y con la llegada de internet la cosa se multiplicó por mil.

Si buscas seguro que encuentras el Diplomacy de Juego de Tronos.



Título: Re:STEM
Publicado por: dmar en Noviembre 25, 2022, 13:54:57 pm
¿Álguien más versado que yo podría comentar sobre los méritos de esta forma de obtener energía?

https://www.elconfidencial.com/tecnologia/novaceno/2022-11-24/energia-termica-plasma-magma_3529091/?utm_source=twitter&utm_medium=social&utm_campaign=ECNocheAutom%C3%A1tico (https://www.elconfidencial.com/tecnologia/novaceno/2022-11-24/energia-termica-plasma-magma_3529091/?utm_source=twitter&utm_medium=social&utm_campaign=ECNocheAutom%C3%A1tico)

Citar
La electricidad barata e ilimitada arrancará en 2028 y no será la fusión
Éstas son las primera imágenes de la central térmica de Quaise, que usará una perforadora de plasma para acceder al magma a gran profundidad y obtener energía ilimitada y barata

Yo pongo una pega de primeras:
Igual que la fusión y las renovables, sigue requiriendo la electrificación completa de los medios de transporte, que tiene el problema del cuello de botella de ciertos materiales  como cobre o litio.

Como puente hasta la fusión parece muy interesante.

Parece que la solución de la transición energética pasa por pensar en una verdadera TRANSICIÓN que permita retener un tiempo losmotores de combustión, ya sea biocombustibles, H2 o lo que sea.

Ojalá progreso energético y que se metan la agenda pobreza 2030 por ya saben dónde.
Título: Re:STEM
Publicado por: wanderer en Noviembre 26, 2022, 15:57:01 pm
Descifran un mensaje de Carlos I de España y V de Alemania no mediante IA, sino mediante métodos informáticos junto con contextualización histórica del documento en cuestión:

Citar
Investigadores descifran carta con “código diabólico” de Carlos V que fue un enigma por cinco siglos
La misteriosa misiva fue escrita por el emperador en 1547 y contenía trampas que nunca habían logrado resolverse

https://www.larazon.es/cultura/historia/20221126/65kp2qd4lbas7k7amfozd65an4.html (https://www.larazon.es/cultura/historia/20221126/65kp2qd4lbas7k7amfozd65an4.html)
Título: Re:STEM
Publicado por: Cadavre Exquis en Diciembre 05, 2022, 00:23:08 am
https://elpais.com/tecnologia/2022-12-03/oriol-vinyals-nuestra-generacion-vera-una-inteligencia-artificial-que-iguale-o-supere-a-la-del-ser-humano.html

(https://i.imgur.com/bHOranz.jpg)

(https://i.imgur.com/7shMHTF.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Diciembre 06, 2022, 21:15:02 pm
El artículo es de finales de mayo de 2021, pero parece que hubiese transcurrido una eternidad en relación con los modelos que han surgido en apenas un año y medio.

(https://i.imgur.com/7qU8QEs.png)
https://twitter.com/techreview/status/1600004832563183616 (https://twitter.com/techreview/status/1600004832563183616)

Citar
AI is learning how to create itself (https://www.technologyreview.com/2021/05/27/1025453/artificial-intelligence-learning-create-itself-agi/)
Humans have struggled to make truly intelligent machines. Maybe we need to let them get on with it themselves.

by Will Douglas Heavenarchive page May 27, 2021

(https://i.imgur.com/UStsYIe.png)

A little stick figure with a wedge-shaped head shuffles across the screen. It moves in a half crouch, dragging one knee along the ground. It’s walking! Er, sort of.

Yet Rui Wang is delighted. “Every day I walk into my office and open my computer, and I don’t know what to expect,” he says.

An artificial-intelligence researcher at Uber, Wang likes to leave the Paired Open-Ended Trailblazer (https://eng.uber.com/poet-open-ended-deep-learning/), a piece of software he helped develop, running on his laptop overnight. POET is a kind of training dojo for virtual bots. So far, they aren’t learning to do much at all. These AI agents are not playing Go (https://www.technologyreview.com/2019/02/22/137052/how-alphazero-has-rewritten-the-rules-of-gameplay-on-its-own/), spotting signs of cancer (https://www.technologyreview.com/2020/09/23/1008757/interview-winner-million-dollar-ai-prize-cancer-healthcare-regulation/), or folding proteins (https://www.technologyreview.com/2020/11/30/1012712/deepmind-protein-folding-ai-solved-biology-science-drugs-disease/)—they’re trying to navigate a crude cartoon landscape of fences and ravines without falling over.

(https://i.imgur.com/ECW51Rw.png) (https://www.youtube.com/watch?v=D1WWhQY9N4g)
Uber AI Labs | POET: Endlessly Generating Increasingly Complex & Diverse Learning Environments and their Solutions (https://www.youtube.com/watch?v=D1WWhQY9N4g)

But it’s not what the bots are learning that’s exciting—it’s how they’re learning. POET generates the obstacle courses, assesses the bots’ abilities, and assigns their next challenge, all without human involvement. Step by faltering step, the bots improve via trial and error. “At some point it might jump over a cliff like a kung fu master,” says Wang.

It may seem basic at the moment, but for Wang and a handful of other researchers, POET hints at a revolutionary new way to create supersmart machines: by getting AI to make itself.

Wang’s former colleague Jeff Clune is among the biggest boosters of this idea. Clune has been working on it for years, first at the University of Wyoming and then at Uber AI Labs, where he worked with Wang and others. Now dividing his time between the University of British Columbia and OpenAI, he has the backing of one of the world’s top artificial-intelligence labs (https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/).

Clune calls the attempt to build truly intelligent AI the most ambitious scientific quest in human history. Today, seven decades after serious efforts to make AI began, we’re still a long way from creating machines that are anywhere near as smart as humans, let alone smarter. Clune thinks POET might point to a shortcut.

“We need to take the shackles off and get out of our own way,” he says.

If Clune is right, using AI to make AI (https://arxiv.org/pdf/1905.10985.pdf) could be an important step on the road that one day leads to artificial general intelligence (https://www.technologyreview.com/2020/10/15/1010461/artificial-general-intelligence-robots-ai-agi-deepmind-google-openai/) (AGI)—machines that can outthink humans. In the nearer term, the technique might also help us discover different kinds of intelligence: non-human smarts that can find solutions in unexpected ways and perhaps complement our own intelligence rather than replace it.

Mimicking evolution
I first spoke to Clune about the idea early last year, just a few weeks after his move to OpenAI. He was happy to discuss past work but remained tight-lipped on what he was doing with his new team. Instead of taking the call inside, he preferred to walk up and down the streets outside the offices as we talked.

All Clune would say was that OpenAI was a good fit. “My idea is very much in line with many of the things that they believe,” he says. “It was kind of a marriage made in heaven. They liked the vision and wanted me to come here and pursue it.” A few months after Clune joined, OpenAI hired most of his old Uber team as well.

Clune’s ambitious vision is grounded by more than OpenAI’s investment. The history of AI is filled with examples in which human-designed solutions gave way to machine-learned ones. Take computer vision: a decade ago, the big breakthrough in image recognition came when existing hand-crafted systems were replaced by ones that taught themselves from scratch. It’s the same for many AI successes.

One of the fascinating things about AI, and machine learning in particular, is its ability to find solutions that humans haven’t found (https://www.technologyreview.com/2017/12/08/147199/alpha-zeros-alien-chess-shows-the-power-and-the-peculiarity-of-ai/)—to surprise us. An oft-cited example is AlphaGo (and its successor AlphaZero), which beat the best humanity has to offer at the ancient, beguiling game of Go by employing seemingly alien strategies. After hundreds of years of study by human masters, AI found solutions no one had ever thought of.

Clune is now working with a team at OpenAI that developed bots that learned to play hide and seek (https://www.technologyreview.com/2019/09/17/75427/open-ai-algorithms-learned-tool-use-and-cooperation-after-hide-and-seek-games/) in a virtual environment in 2018. These AIs started off with simple goals and simple tools to achieve them: one pair had to find the other, which could hide behind movable obstacles. Yet when these bots were let loose to learn, they soon found ways to take advantage of their environment in ways the researchers had not foreseen. They exploited glitches in the simulated physics of their virtual world to jump over and even pass through walls.

Those kinds of unexpected emergent behaviors offer tantalizing hints that AI might arrive at technical solutions humans would not think of by themselves, inventing new and more efficient types of algorithms or neural networks—or even ditching neural networks, a cornerstone of modern AI, entirely.

Clune likes to remind people that intelligence has already emerged from simple beginnings. “What’s interesting about this approach is that we know it can work,” he says. “The very simple algorithm of Darwinian evolution produced your brain, and your brain is the most intelligent learning algorithm in the universe that we know so far.” His point is that if intelligence as we know it resulted from the mindless mutation of genes over countless generations, why not seek to replicate the intelligence-producing process—which is arguably simpler—rather than intelligence itself?

But there’s another crucial observation here. Intelligence was never an endpoint for evolution, something to aim for. Instead, it emerged in many different forms from countless tiny solutions to challenges that allowed living things to survive and take on future challenges. Intelligence is the current high point in an ongoing and open-ended process. In this sense, evolution is quite different from algorithms the way people typically think of them—as means to an end.

It’s this open-endedness, glimpsed in the apparently aimless sequence of challenges generated by POET, that Clune and others believe could lead to new kinds of AI. For decades AI researchers have tried to build algorithms to mimic human intelligence, but the real breakthrough may come from building algorithms that try to mimic the open-ended problem-solving of evolution—and sitting back to watch what emerges.

Researchers are already using machine learning on itself, training it to find solutions to some of the field’s hardest problems, such as how to make machines that can learn more than one task at a time or cope with situations they have not encountered before. Some now think that taking this approach and running with it might be the best path to artificial general intelligence. “We could start an algorithm that initially does not have much intelligence inside it, and watch it bootstrap itself all the way up potentially to AGI,” Clune says.

The truth is that for now, AGI remains a fantasy. But that’s largely because nobody knows how to make it. Advances in AI are piecemeal and carried out by humans, with progress typically involving tweaks to existing techniques or algorithms, yielding incremental leaps in performance or accuracy. Clune characterizes these efforts as attempts to discover the building blocks for artificial intelligence without knowing what you’re looking for or how many blocks you’ll need. And that’s just the start. “At some point, we have to take on the Herculean task of putting them all together,” he says.

Asking AI to find and assemble those building blocks for us is a paradigm shift. It’s saying we want to create an intelligent machine, but we don’t care what it might look like—just give us whatever works.

Even if AGI is never achieved, the self-teaching approach may still change what sorts of AI are created. The world needs more than a very good Go player, says Clune. For him, creating a supersmart machine means building a system that invents its own challenges, solves them, and then invents new ones. POET is a tiny glimpse of this in action. Clune imagines a machine that teaches a bot to walk, then to play hopscotch, then maybe to play Go. “Then maybe it learns math puzzles and starts inventing its own challenges,” he says. “The system continuously innovates, and the sky’s the limit in terms of where it might go.”

It’s wild speculation, perhaps, but one hope is that machines like this might be able to evade our conceptual dead ends, helping us unpick vastly complex crises such as climate change or global health.

But first we have to make one.

How to create a brain
There are many different ways to wire up an artificial brain.

Neural networks are made from multiple layers of artificial neurons encoded in software. Each neuron can be connected to others in the layers above. The way a neural network is wired makes a big difference, and new architectures often lead to new breakthroughs.

The neural networks coded by human scientists are often the result of trial and error. There is little theory to what does and doesn’t work, and no guarantee that the best designs have been found. That’s why automating the hunt for better neural-network designs has been one of the hottest topics in AI since at least the 1980s. The most common way to automate the process is to let an AI generate many possible network designs, and let the network automatically try each of them and choose the best ones. This is commonly known as neuro-evolution or neural architecture search (NAS).

In the last few years, these machine designs have started to outstrip human ones. In 2018, Esteban Real and his colleagues at Google used NAS to generate a neural network for image recognition that beat the best human-designed networks (https://arxiv.org/pdf/1802.01548.pdf) at the time. That was an eye-opener.

The 2018 system is part of an ongoing Google project called AutoML, which has also used NAS to produce EfficientNets, a family of deep-learning models that are more efficient than human-designed ones, achieving high levels of accuracy on image-recognition tasks with smaller, faster models (https://arxiv.org/abs/1905.11946).

Three years on, Real is pushing the boundaries of what can be generated from scratch. The earlier systems just rearranged tried and tested neural-network pieces, such as existing types of layers or components. “We could expect a good answer,” he says.

Last year Real and his team took the training wheels off. The new system, called AutoML Zero (https://arxiv.org/abs/2003.03384), tries to build an AI from the ground up using nothing but the most basic mathematical concepts that govern machine learning.

Amazingly, not only did AutoML Zero spontaneously build a neural network, but it came up with gradient descent, the most common mathematical technique that human designers use to train a network. “I was quite surprised,” says Real. “It’s a very simple algorithm—it takes like six lines of code—but it wrote the exact six lines.”

AutoML Zero is not yet generating architectures that rival the performance of human-designed systems—or indeed doing much that a human designer would not have done. But Real believes it could one day.

Time to train a new kind of teacher
First you make a brain; then you have to teach it. But machine brains don’t learn the way ours do. Our brains are fantastic at adapting to new environments and new tasks. Today’s AIs can solve challenges under certain conditions but fail when those conditions change even a little. This inflexibility is hampering the quest to create more generalizable AI that can be useful across a wide range of scenarios, which would be a big step toward making them truly intelligent.

For Jane Wang, a researcher at DeepMind in London, the best way to make AI more flexible is to get it to learn that trait itself. In other words, she wants to build an AI that not only learns specific tasks but learns to learn those tasks in ways that can be adapted to fresh situations.

Researchers have been trying to make AI more adaptable for years. Wang thinks that getting AI to work through this problem for itself avoids some of the trial and error of a hand-designed approach: “We can’t possibly expect to stumble upon the right answer right away.” In the process, she hopes, we will also learn more about how brains work. “There’s still so much we don’t understand about the way that humans and animals learn,” she says.

There are two main approaches to generating learning algorithms automatically, but both start with an existing neural network and use AI to teach it.

The first approach, invented separately by Wang and her colleagues at DeepMind (https://arxiv.org/abs/1611.05763) and by a team at OpenAI/url] at around the same time, uses recurrent neural networks. This type of network can be trained in such a way that the activations of their neurons—roughly akin to the firing of neurons in biological brains—encode any type of algorithm. DeepMind and OpenAI took advantage of this to train a recurrent neural network to generate reinforcement-learning algorithms, which tell an AI how to behave to achieve given goals.

The upshot is that the DeepMind and OpenAI systems do not learn an algorithm that solve a specific challenge, such as recognizing images, but learn a learning algorithm that can be applied to multiple tasks and adapt as it goes. It’s like the old adage about teaching someone to fish: whereas a hand-designed algorithm can learn a particular task, these AIs are being made to learn how to learn by themselves. And some of them are performing better than human-designed ones.

The second approach comes from Chelsea Finn at the University of California, Berkeley, and her colleagues. Called [url=https://bair.berkeley.edu/blog/2017/07/18/learning-to-learn/]model-agnostic meta-learning (https://arxiv.org/pdf/1611.02779.pdf), or MAML, it trains a model using two machine-learning processes, one nested inside the other.

Roughly, here’s how it works. The inner process in MAML is trained on data and then tested—as usual. But then the outer model takes the performance of the inner model—how well it identifies images, say—and uses it to learn how to adjust that model’s learning algorithm to boost performance. It’s as if you had an school inspector watching over a bunch of teachers, each offering different learning techniques. The inspector checks which techniques help the students get the best scores and tweaks them accordingly.

Through these approaches, researchers are building AI that is more robust, more generalized, and able to learn faster with less data. For example, Finn wants a robot that has learned to walk on flat ground to be able to transition, with minimal extra training, to walking on a slope or on grass or while carrying a load.

Last year, Clune and his colleagues extended Finn’s technique to design an algorithm that learns using fewer neurons so that it does not overwrite everything it has learned previously, a big unsolved problem in machine learning known as catastrophic forgetting. A trained model that uses fewer neurons, known as a “sparse” model, will have more unused neurons left over to dedicate to new tasks when retrained, which means that fewer of the “used” neurons will get overwritten. Clune found that setting his AI the challenge of learning more than one task led it to come up with its own version of a sparse model that outperformed human-designed ones.

If we’re going all in on letting AI create and teach itself, then AIs should generate their own training environments, too—the schools and textbooks, as well as the lesson plans.

And the past year has seen a raft of projects in which AI has been trained on automatically generated data. Face-recognition systems are being trained with AI-generated faces, for example. AIs are also learning how to train each other. In one recent example, two robot arms (https://www.technologyreview.com/2021/01/22/1016633/robot-arms-smarter-self-play-reinforcement-learning-training-openai/) worked together, with one arm learning to set tougher and tougher block-stacking challenges that trained the other to grip and grasp objects.

In fact, Clune wonders if human intuition about what kind of data an AI needs in order to learn may be off. For example, he and his colleagues have developed what he calls generative teaching networks (https://arxiv.org/pdf/1912.07768.pdf), which learn what data they should generate to get the best results when training a model. In one experiment, he used one of these networks to adapt a data set of handwritten numbers that’s often used to train image-recognition algorithms. What it came up with looked very different from the original human-curated data set: hundreds of not-quite digits, such as the top half of the figure seven or what looked like two digits merged together. Some AI-generated examples were hard to decipher at all. Despite this, the AI-generated data still did a great job at training the handwriting recognition system to identify actual digits.

Don’t try to succeed
AI-generated data is still just a part of the puzzle. The long-term vision is to take all these techniques—and others not yet invented—and hand them over to an AI trainer that controls how artificial brains are wired, how they are trained, and what they are trained on. Even Clune is not clear on what such a future system would look like. Sometimes he talks about a kind of hyper-realistic simulated sandbox, where AIs can cut their teeth and skin their virtual knees. Something that complex is still years away. The closest thing yet is POET, the system Clune created with Uber’s Rui Wang and others.

POET was motivated by a paradox, says Wang. If you try to solve a problem you’ll fail; if you don’t try to solve it you’re more likely to succeed. This is one of the insights Clune takes from his analogy with evolution—amazing results that emerge from an apparently random process often cannot be re-created by taking deliberate steps toward the same end. There’s no doubt that butterflies exist, but rewind to their single-celled precursors and try to create them from scratch by choosing each step from bacterium to bug, and you’d likely fail.

POET starts its two-legged agent off in a simple environment, such as a flat path without obstacles. At first the agent doesn’t know what to do with its legs and cannot walk. But through trial and error, the reinforcement-learning algorithm controlling it learns how to move along flat ground. POET then generates a new random environment that’s different, but not necessarily harder to move in. The agent tries walking there. If there are obstacles in this new environment, the agent learns how to get over or across those. Every time an agent succeeds or gets stuck, it is moved to a new environment. Over time, the agents learn a range of walking and jumping actions that let them navigate harder and harder obstacle courses.

The team found that random switching of environments was essential.

For example, agents sometimes learned to walk on flat ground with a weird, half-kneeling shuffle, because that was good enough. “They never learn to stand up because they never need to,” says Wang. But after they had been forced to learn alternative strategies on obstacle-strewn ground, they could return to the early stage with a better way of walking—using both legs instead of dragging one behind, say—and then take that improved version of itself forward to harder challenges.

POET trains its bots in a way that no human would—it takes erratic, unintuitive paths to success. At each stage, the bots try to figure out a solution to whatever challenge they are presented with. By coping with a random selection of obstacles thrown their way, they get better overall. But there is no end point to this process, no ultimate test to pass or high score to beat.

Clune, Wang, and a number of their colleagues believe this is a profound insight. They are now exploring what it might mean for the development of supersmart machines. Could trying not to chart a specific path actually be a key breakthrough on the way to artificial general intelligence?

POET is already inspiring other researchers, such as Natasha Jaques and Michael Dennis at the University of California, Berkeley. They’ve developed a system called PAIRED (https://ai.googleblog.com/2021/03/paired-new-multi-agent-approach-for.html) that uses AI to generate a series of mazes to train another AI to navigate them.

Rui Wang thinks human-designed challenges are going to be a bottleneck and that real progress in AI will require AI to come up with its own. “No matter how good algorithms are today, they are always tested on some hand-designed benchmark,” he says. “It’s very hard to imagine artificial general intelligence coming from this, because it is bound by fixed goals.”

A new kind of intelligence
The rapid development of AI that can train itself also raises questions about how well we can control its growth. The idea of AI that builds better AI is a crucial part of the myth-making behind the “Singularity,” the imagined point in the future when AIs start to improve at an exponential rate and move beyond our control. Eventually, certain doomsayers warn, AI might decide it doesn’t need humans at all.

That’s not what any of these researchers have in mind: their work is very much focused on making today’s AI better. Machines that run amok remain a far-off anti-fantasy.

Even so, DeepMind’s Jane Wang has reservations. A big part of the attraction of using AI to make AI is that it can come up with designs and techniques that people hadn’t thought of. Yet Wang notes that not all surprises are good surprises: “Open-endedness is, by definition, something that’s unexpected.” If the whole idea is to get AI to do something you didn’t anticipate, it becomes harder to control. “That’s both exciting and scary,” she says.

Clune also stresses the importance of thinking about the ethics of the new technology from the start. There is a good chance that AI-designed neural networks and algorithms will be even harder to understand than today’s already opaque black-box systems. Are AIs generated by algorithms harder to audit for bias (https://www.technologyreview.com/2021/02/11/1017955/auditors-testing-ai-hiring-algorithms-bias-big-questions-remain/)? Is it harder to guarantee that they will not behave in undesirable ways?

Clune hopes such questions will be asked and answered as more people realize the potential of self-generating AIs. “Most people in the machine-learning community don’t ever really talk about our overall path to extremely powerful AI,” he says—instead, they tend to focus on small, incremental improvements. Clune wants to start a conversation about the field’s biggest ambitions again.

His own ambitions tie back into his early interests in human intelligence and how it evolved. His grand vision is to set things up so that machines might one day see their own intelligence—or intelligences—emerge and improve through countless generations of trial and error, guided by algorithms with no ultimate blueprint in mind.

If AI starts to generate intelligence by itself, there’s no guarantee that it will be human-like. Rather than humans teaching machines to think like humans, machines might teach humans new ways of thinking.

“There’s probably a vast number of different ways to be very intelligent,” says Clune. “One of the things that excite me about AI is that we might come to understand intelligence more generally, by seeing what variation is possible.

“I think that’s fascinating. I mean, it’s almost like inventing interstellar travel and being able to go visit alien cultures. There would be no greater moment in the history of humankind than encountering an alien race and learning about its culture, its science, everything. Interstellar travel is exceedingly difficult, but we have the ability to potentially create alien intelligences digitally.”
Saludos.
Título: Re:STEM
Publicado por: puede ser en Diciembre 06, 2022, 23:12:34 pm
https://www.zdnet.com/article/stack-overflow-temporarily-bans-answers-from-openais-chatgpt-chatbot/ (https://www.zdnet.com/article/stack-overflow-temporarily-bans-answers-from-openais-chatgpt-chatbot/)
Citar
Stack Overflow prohíbe temporalmente las respuestas del chatbot ChatGPT de OpenAI

El sitio de preguntas y respuestas se ha inundado con respuestas de codificación de ChatGPT que parecen correctas pero a menudo no lo son, y los moderadores piden que se detenga.

Este puente mucha gente estuvo pasando el rato poniendo en aprietos al chat y al parecer no quedó muy bien. A la IA que intenta aprender de nosotros se le debería enseñar primordialmente la primera ley de la estupidez de Cipolla  :roto2:

Título: Re:STEM
Publicado por: pollo en Diciembre 07, 2022, 14:03:21 pm
El artículo es de finales de mayo de 2021, pero parece que hubiese transcurrido una eternidad en relación con los modelos que han surgido en apenas un año y medio.

(https://i.imgur.com/7qU8QEs.png)
https://twitter.com/techreview/status/1600004832563183616 (https://twitter.com/techreview/status/1600004832563183616)

Citar
AI is learning how to create itself (https://www.technologyreview.com/2021/05/27/1025453/artificial-intelligence-learning-create-itself-agi/)
Humans have struggled to make truly intelligent machines. Maybe we need to let them get on with it themselves.

by Will Douglas Heavenarchive page May 27, 2021

(https://i.imgur.com/UStsYIe.png)

A little stick figure with a wedge-shaped head shuffles across the screen. It moves in a half crouch, dragging one knee along the ground. It’s walking! Er, sort of.

Yet Rui Wang is delighted. “Every day I walk into my office and open my computer, and I don’t know what to expect,” he says.

An artificial-intelligence researcher at Uber, Wang likes to leave the Paired Open-Ended Trailblazer (https://eng.uber.com/poet-open-ended-deep-learning/), a piece of software he helped develop, running on his laptop overnight. POET is a kind of training dojo for virtual bots. So far, they aren’t learning to do much at all. These AI agents are not playing Go (https://www.technologyreview.com/2019/02/22/137052/how-alphazero-has-rewritten-the-rules-of-gameplay-on-its-own/), spotting signs of cancer (https://www.technologyreview.com/2020/09/23/1008757/interview-winner-million-dollar-ai-prize-cancer-healthcare-regulation/), or folding proteins (https://www.technologyreview.com/2020/11/30/1012712/deepmind-protein-folding-ai-solved-biology-science-drugs-disease/)—they’re trying to navigate a crude cartoon landscape of fences and ravines without falling over.

(https://i.imgur.com/ECW51Rw.png) (https://www.youtube.com/watch?v=D1WWhQY9N4g)
Uber AI Labs | POET: Endlessly Generating Increasingly Complex & Diverse Learning Environments and their Solutions (https://www.youtube.com/watch?v=D1WWhQY9N4g)

But it’s not what the bots are learning that’s exciting—it’s how they’re learning. POET generates the obstacle courses, assesses the bots’ abilities, and assigns their next challenge, all without human involvement. Step by faltering step, the bots improve via trial and error. “At some point it might jump over a cliff like a kung fu master,” says Wang.

It may seem basic at the moment, but for Wang and a handful of other researchers, POET hints at a revolutionary new way to create supersmart machines: by getting AI to make itself.

Wang’s former colleague Jeff Clune is among the biggest boosters of this idea. Clune has been working on it for years, first at the University of Wyoming and then at Uber AI Labs, where he worked with Wang and others. Now dividing his time between the University of British Columbia and OpenAI, he has the backing of one of the world’s top artificial-intelligence labs (https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/).

Clune calls the attempt to build truly intelligent AI the most ambitious scientific quest in human history. Today, seven decades after serious efforts to make AI began, we’re still a long way from creating machines that are anywhere near as smart as humans, let alone smarter. Clune thinks POET might point to a shortcut.

“We need to take the shackles off and get out of our own way,” he says.

If Clune is right, using AI to make AI (https://arxiv.org/pdf/1905.10985.pdf) could be an important step on the road that one day leads to artificial general intelligence (https://www.technologyreview.com/2020/10/15/1010461/artificial-general-intelligence-robots-ai-agi-deepmind-google-openai/) (AGI)—machines that can outthink humans. In the nearer term, the technique might also help us discover different kinds of intelligence: non-human smarts that can find solutions in unexpected ways and perhaps complement our own intelligence rather than replace it.

Mimicking evolution
I first spoke to Clune about the idea early last year, just a few weeks after his move to OpenAI. He was happy to discuss past work but remained tight-lipped on what he was doing with his new team. Instead of taking the call inside, he preferred to walk up and down the streets outside the offices as we talked.

All Clune would say was that OpenAI was a good fit. “My idea is very much in line with many of the things that they believe,” he says. “It was kind of a marriage made in heaven. They liked the vision and wanted me to come here and pursue it.” A few months after Clune joined, OpenAI hired most of his old Uber team as well.

Clune’s ambitious vision is grounded by more than OpenAI’s investment. The history of AI is filled with examples in which human-designed solutions gave way to machine-learned ones. Take computer vision: a decade ago, the big breakthrough in image recognition came when existing hand-crafted systems were replaced by ones that taught themselves from scratch. It’s the same for many AI successes.

One of the fascinating things about AI, and machine learning in particular, is its ability to find solutions that humans haven’t found (https://www.technologyreview.com/2017/12/08/147199/alpha-zeros-alien-chess-shows-the-power-and-the-peculiarity-of-ai/)—to surprise us. An oft-cited example is AlphaGo (and its successor AlphaZero), which beat the best humanity has to offer at the ancient, beguiling game of Go by employing seemingly alien strategies. After hundreds of years of study by human masters, AI found solutions no one had ever thought of.

Clune is now working with a team at OpenAI that developed bots that learned to play hide and seek (https://www.technologyreview.com/2019/09/17/75427/open-ai-algorithms-learned-tool-use-and-cooperation-after-hide-and-seek-games/) in a virtual environment in 2018. These AIs started off with simple goals and simple tools to achieve them: one pair had to find the other, which could hide behind movable obstacles. Yet when these bots were let loose to learn, they soon found ways to take advantage of their environment in ways the researchers had not foreseen. They exploited glitches in the simulated physics of their virtual world to jump over and even pass through walls.

Those kinds of unexpected emergent behaviors offer tantalizing hints that AI might arrive at technical solutions humans would not think of by themselves, inventing new and more efficient types of algorithms or neural networks—or even ditching neural networks, a cornerstone of modern AI, entirely.

Clune likes to remind people that intelligence has already emerged from simple beginnings. “What’s interesting about this approach is that we know it can work,” he says. “The very simple algorithm of Darwinian evolution produced your brain, and your brain is the most intelligent learning algorithm in the universe that we know so far.” His point is that if intelligence as we know it resulted from the mindless mutation of genes over countless generations, why not seek to replicate the intelligence-producing process—which is arguably simpler—rather than intelligence itself?

But there’s another crucial observation here. Intelligence was never an endpoint for evolution, something to aim for. Instead, it emerged in many different forms from countless tiny solutions to challenges that allowed living things to survive and take on future challenges. Intelligence is the current high point in an ongoing and open-ended process. In this sense, evolution is quite different from algorithms the way people typically think of them—as means to an end.

It’s this open-endedness, glimpsed in the apparently aimless sequence of challenges generated by POET, that Clune and others believe could lead to new kinds of AI. For decades AI researchers have tried to build algorithms to mimic human intelligence, but the real breakthrough may come from building algorithms that try to mimic the open-ended problem-solving of evolution—and sitting back to watch what emerges.

Researchers are already using machine learning on itself, training it to find solutions to some of the field’s hardest problems, such as how to make machines that can learn more than one task at a time or cope with situations they have not encountered before. Some now think that taking this approach and running with it might be the best path to artificial general intelligence. “We could start an algorithm that initially does not have much intelligence inside it, and watch it bootstrap itself all the way up potentially to AGI,” Clune says.

The truth is that for now, AGI remains a fantasy. But that’s largely because nobody knows how to make it. Advances in AI are piecemeal and carried out by humans, with progress typically involving tweaks to existing techniques or algorithms, yielding incremental leaps in performance or accuracy. Clune characterizes these efforts as attempts to discover the building blocks for artificial intelligence without knowing what you’re looking for or how many blocks you’ll need. And that’s just the start. “At some point, we have to take on the Herculean task of putting them all together,” he says.

Asking AI to find and assemble those building blocks for us is a paradigm shift. It’s saying we want to create an intelligent machine, but we don’t care what it might look like—just give us whatever works.

Even if AGI is never achieved, the self-teaching approach may still change what sorts of AI are created. The world needs more than a very good Go player, says Clune. For him, creating a supersmart machine means building a system that invents its own challenges, solves them, and then invents new ones. POET is a tiny glimpse of this in action. Clune imagines a machine that teaches a bot to walk, then to play hopscotch, then maybe to play Go. “Then maybe it learns math puzzles and starts inventing its own challenges,” he says. “The system continuously innovates, and the sky’s the limit in terms of where it might go.”

It’s wild speculation, perhaps, but one hope is that machines like this might be able to evade our conceptual dead ends, helping us unpick vastly complex crises such as climate change or global health.

But first we have to make one.

How to create a brain
There are many different ways to wire up an artificial brain.

Neural networks are made from multiple layers of artificial neurons encoded in software. Each neuron can be connected to others in the layers above. The way a neural network is wired makes a big difference, and new architectures often lead to new breakthroughs.

The neural networks coded by human scientists are often the result of trial and error. There is little theory to what does and doesn’t work, and no guarantee that the best designs have been found. That’s why automating the hunt for better neural-network designs has been one of the hottest topics in AI since at least the 1980s. The most common way to automate the process is to let an AI generate many possible network designs, and let the network automatically try each of them and choose the best ones. This is commonly known as neuro-evolution or neural architecture search (NAS).

In the last few years, these machine designs have started to outstrip human ones. In 2018, Esteban Real and his colleagues at Google used NAS to generate a neural network for image recognition that beat the best human-designed networks (https://arxiv.org/pdf/1802.01548.pdf) at the time. That was an eye-opener.

The 2018 system is part of an ongoing Google project called AutoML, which has also used NAS to produce EfficientNets, a family of deep-learning models that are more efficient than human-designed ones, achieving high levels of accuracy on image-recognition tasks with smaller, faster models (https://arxiv.org/abs/1905.11946).

Three years on, Real is pushing the boundaries of what can be generated from scratch. The earlier systems just rearranged tried and tested neural-network pieces, such as existing types of layers or components. “We could expect a good answer,” he says.

Last year Real and his team took the training wheels off. The new system, called AutoML Zero (https://arxiv.org/abs/2003.03384), tries to build an AI from the ground up using nothing but the most basic mathematical concepts that govern machine learning.

Amazingly, not only did AutoML Zero spontaneously build a neural network, but it came up with gradient descent, the most common mathematical technique that human designers use to train a network. “I was quite surprised,” says Real. “It’s a very simple algorithm—it takes like six lines of code—but it wrote the exact six lines.”

AutoML Zero is not yet generating architectures that rival the performance of human-designed systems—or indeed doing much that a human designer would not have done. But Real believes it could one day.

Time to train a new kind of teacher
First you make a brain; then you have to teach it. But machine brains don’t learn the way ours do. Our brains are fantastic at adapting to new environments and new tasks. Today’s AIs can solve challenges under certain conditions but fail when those conditions change even a little. This inflexibility is hampering the quest to create more generalizable AI that can be useful across a wide range of scenarios, which would be a big step toward making them truly intelligent.

For Jane Wang, a researcher at DeepMind in London, the best way to make AI more flexible is to get it to learn that trait itself. In other words, she wants to build an AI that not only learns specific tasks but learns to learn those tasks in ways that can be adapted to fresh situations.

Researchers have been trying to make AI more adaptable for years. Wang thinks that getting AI to work through this problem for itself avoids some of the trial and error of a hand-designed approach: “We can’t possibly expect to stumble upon the right answer right away.” In the process, she hopes, we will also learn more about how brains work. “There’s still so much we don’t understand about the way that humans and animals learn,” she says.

There are two main approaches to generating learning algorithms automatically, but both start with an existing neural network and use AI to teach it.

The first approach, invented separately by Wang and her colleagues at DeepMind (https://arxiv.org/abs/1611.05763) and by a team at OpenAI/url] at around the same time, uses recurrent neural networks. This type of network can be trained in such a way that the activations of their neurons—roughly akin to the firing of neurons in biological brains—encode any type of algorithm. DeepMind and OpenAI took advantage of this to train a recurrent neural network to generate reinforcement-learning algorithms, which tell an AI how to behave to achieve given goals.

The upshot is that the DeepMind and OpenAI systems do not learn an algorithm that solve a specific challenge, such as recognizing images, but learn a learning algorithm that can be applied to multiple tasks and adapt as it goes. It’s like the old adage about teaching someone to fish: whereas a hand-designed algorithm can learn a particular task, these AIs are being made to learn how to learn by themselves. And some of them are performing better than human-designed ones.

The second approach comes from Chelsea Finn at the University of California, Berkeley, and her colleagues. Called [url=https://bair.berkeley.edu/blog/2017/07/18/learning-to-learn/]model-agnostic meta-learning (https://arxiv.org/pdf/1611.02779.pdf), or MAML, it trains a model using two machine-learning processes, one nested inside the other.

Roughly, here’s how it works. The inner process in MAML is trained on data and then tested—as usual. But then the outer model takes the performance of the inner model—how well it identifies images, say—and uses it to learn how to adjust that model’s learning algorithm to boost performance. It’s as if you had an school inspector watching over a bunch of teachers, each offering different learning techniques. The inspector checks which techniques help the students get the best scores and tweaks them accordingly.

Through these approaches, researchers are building AI that is more robust, more generalized, and able to learn faster with less data. For example, Finn wants a robot that has learned to walk on flat ground to be able to transition, with minimal extra training, to walking on a slope or on grass or while carrying a load.

Last year, Clune and his colleagues extended Finn’s technique to design an algorithm that learns using fewer neurons so that it does not overwrite everything it has learned previously, a big unsolved problem in machine learning known as catastrophic forgetting. A trained model that uses fewer neurons, known as a “sparse” model, will have more unused neurons left over to dedicate to new tasks when retrained, which means that fewer of the “used” neurons will get overwritten. Clune found that setting his AI the challenge of learning more than one task led it to come up with its own version of a sparse model that outperformed human-designed ones.

If we’re going all in on letting AI create and teach itself, then AIs should generate their own training environments, too—the schools and textbooks, as well as the lesson plans.

And the past year has seen a raft of projects in which AI has been trained on automatically generated data. Face-recognition systems are being trained with AI-generated faces, for example. AIs are also learning how to train each other. In one recent example, two robot arms (https://www.technologyreview.com/2021/01/22/1016633/robot-arms-smarter-self-play-reinforcement-learning-training-openai/) worked together, with one arm learning to set tougher and tougher block-stacking challenges that trained the other to grip and grasp objects.

In fact, Clune wonders if human intuition about what kind of data an AI needs in order to learn may be off. For example, he and his colleagues have developed what he calls generative teaching networks (https://arxiv.org/pdf/1912.07768.pdf), which learn what data they should generate to get the best results when training a model. In one experiment, he used one of these networks to adapt a data set of handwritten numbers that’s often used to train image-recognition algorithms. What it came up with looked very different from the original human-curated data set: hundreds of not-quite digits, such as the top half of the figure seven or what looked like two digits merged together. Some AI-generated examples were hard to decipher at all. Despite this, the AI-generated data still did a great job at training the handwriting recognition system to identify actual digits.

Don’t try to succeed
AI-generated data is still just a part of the puzzle. The long-term vision is to take all these techniques—and others not yet invented—and hand them over to an AI trainer that controls how artificial brains are wired, how they are trained, and what they are trained on. Even Clune is not clear on what such a future system would look like. Sometimes he talks about a kind of hyper-realistic simulated sandbox, where AIs can cut their teeth and skin their virtual knees. Something that complex is still years away. The closest thing yet is POET, the system Clune created with Uber’s Rui Wang and others.

POET was motivated by a paradox, says Wang. If you try to solve a problem you’ll fail; if you don’t try to solve it you’re more likely to succeed. This is one of the insights Clune takes from his analogy with evolution—amazing results that emerge from an apparently random process often cannot be re-created by taking deliberate steps toward the same end. There’s no doubt that butterflies exist, but rewind to their single-celled precursors and try to create them from scratch by choosing each step from bacterium to bug, and you’d likely fail.

POET starts its two-legged agent off in a simple environment, such as a flat path without obstacles. At first the agent doesn’t know what to do with its legs and cannot walk. But through trial and error, the reinforcement-learning algorithm controlling it learns how to move along flat ground. POET then generates a new random environment that’s different, but not necessarily harder to move in. The agent tries walking there. If there are obstacles in this new environment, the agent learns how to get over or across those. Every time an agent succeeds or gets stuck, it is moved to a new environment. Over time, the agents learn a range of walking and jumping actions that let them navigate harder and harder obstacle courses.

The team found that random switching of environments was essential.

For example, agents sometimes learned to walk on flat ground with a weird, half-kneeling shuffle, because that was good enough. “They never learn to stand up because they never need to,” says Wang. But after they had been forced to learn alternative strategies on obstacle-strewn ground, they could return to the early stage with a better way of walking—using both legs instead of dragging one behind, say—and then take that improved version of itself forward to harder challenges.

POET trains its bots in a way that no human would—it takes erratic, unintuitive paths to success. At each stage, the bots try to figure out a solution to whatever challenge they are presented with. By coping with a random selection of obstacles thrown their way, they get better overall. But there is no end point to this process, no ultimate test to pass or high score to beat.

Clune, Wang, and a number of their colleagues believe this is a profound insight. They are now exploring what it might mean for the development of supersmart machines. Could trying not to chart a specific path actually be a key breakthrough on the way to artificial general intelligence?

POET is already inspiring other researchers, such as Natasha Jaques and Michael Dennis at the University of California, Berkeley. They’ve developed a system called PAIRED (https://ai.googleblog.com/2021/03/paired-new-multi-agent-approach-for.html) that uses AI to generate a series of mazes to train another AI to navigate them.

Rui Wang thinks human-designed challenges are going to be a bottleneck and that real progress in AI will require AI to come up with its own. “No matter how good algorithms are today, they are always tested on some hand-designed benchmark,” he says. “It’s very hard to imagine artificial general intelligence coming from this, because it is bound by fixed goals.”

A new kind of intelligence
The rapid development of AI that can train itself also raises questions about how well we can control its growth. The idea of AI that builds better AI is a crucial part of the myth-making behind the “Singularity,” the imagined point in the future when AIs start to improve at an exponential rate and move beyond our control. Eventually, certain doomsayers warn, AI might decide it doesn’t need humans at all.

That’s not what any of these researchers have in mind: their work is very much focused on making today’s AI better. Machines that run amok remain a far-off anti-fantasy.

Even so, DeepMind’s Jane Wang has reservations. A big part of the attraction of using AI to make AI is that it can come up with designs and techniques that people hadn’t thought of. Yet Wang notes that not all surprises are good surprises: “Open-endedness is, by definition, something that’s unexpected.” If the whole idea is to get AI to do something you didn’t anticipate, it becomes harder to control. “That’s both exciting and scary,” she says.

Clune also stresses the importance of thinking about the ethics of the new technology from the start. There is a good chance that AI-designed neural networks and algorithms will be even harder to understand than today’s already opaque black-box systems. Are AIs generated by algorithms harder to audit for bias (https://www.technologyreview.com/2021/02/11/1017955/auditors-testing-ai-hiring-algorithms-bias-big-questions-remain/)? Is it harder to guarantee that they will not behave in undesirable ways?

Clune hopes such questions will be asked and answered as more people realize the potential of self-generating AIs. “Most people in the machine-learning community don’t ever really talk about our overall path to extremely powerful AI,” he says—instead, they tend to focus on small, incremental improvements. Clune wants to start a conversation about the field’s biggest ambitions again.

His own ambitions tie back into his early interests in human intelligence and how it evolved. His grand vision is to set things up so that machines might one day see their own intelligence—or intelligences—emerge and improve through countless generations of trial and error, guided by algorithms with no ultimate blueprint in mind.

If AI starts to generate intelligence by itself, there’s no guarantee that it will be human-like. Rather than humans teaching machines to think like humans, machines might teach humans new ways of thinking.

“There’s probably a vast number of different ways to be very intelligent,” says Clune. “One of the things that excite me about AI is that we might come to understand intelligence more generally, by seeing what variation is possible.

“I think that’s fascinating. I mean, it’s almost like inventing interstellar travel and being able to go visit alien cultures. There would be no greater moment in the history of humankind than encountering an alien race and learning about its culture, its science, everything. Interstellar travel is exceedingly difficult, but we have the ability to potentially create alien intelligences digitally.”
Saludos.
Personalmente odio cómo se mezclan realidades constatables con un montón de especulación y proyección sensacionalista vendeburras (empezando por el titular, que es falso, y obvia el trabajo de la gente de este campo).
Es una tónica común a todo el periodismo en este campo. De vez en cuando nos vienen a vender la IA general a la vuelta de la esquina, que el viaje más rápido que la luz será posible, o que casi se tiene una máquina de movimiento perpetuo. Es de vergüenza.
Título: Re:STEM
Publicado por: Benzino Napaloni en Diciembre 07, 2022, 15:03:42 pm
Personalmente odio cómo se mezclan realidades constatables con un montón de especulación y proyección sensacionalista vendeburras (empezando por el titular, que es falso, y obvia el trabajo de la gente de este campo).
Es una tónica común a todo el periodismo en este campo. De vez en cuando nos vienen a vender la IA general a la vuelta de la esquina, que el viaje más rápido que la luz será posible, o que casi se tiene una máquina de movimiento perpetuo. Es de vergüenza.

Por no hablar de las veces que ya se le ha pillado al vendeburras de turno con las manos en la masa. Resultados incompletos, o ad hoc, o incluso con un operador humano escondido.

https://www.zdnet.com/article/stack-overflow-temporarily-bans-answers-from-openais-chatgpt-chatbot/ (https://www.zdnet.com/article/stack-overflow-temporarily-bans-answers-from-openais-chatgpt-chatbot/)
Citar
Stack Overflow prohíbe temporalmente las respuestas del chatbot ChatGPT de OpenAI

El sitio de preguntas y respuestas se ha inundado con respuestas de codificación de ChatGPT que parecen correctas pero a menudo no lo son, y los moderadores piden que se detenga.

Este puente mucha gente estuvo pasando el rato poniendo en aprietos al chat y al parecer no quedó muy bien. A la IA que intenta aprender de nosotros se le debería enseñar primordialmente la primera ley de la estupidez de Cipolla  :roto2:



Précisément, mon ami, précisément. :roto2: Nunca, repito, nunca hacen una demostración completa y real. Donde cualquiera pueda hacer una prueba y buscar las cosquillas si hace falta. Siempre están recortadas, siempre están limitadas. Y las preguntas incómodas nunca se contestan, o más bien directamente ni se dejan formular.
Título: Re:STEM
Publicado por: Rocoso en Diciembre 07, 2022, 19:17:05 pm
Le hemos pedido a Stable Diffusion en NightCafé que dibuje alguna de las ideas del foro:

(https://images.nightcafe.studio/jobs/eTlijxvfKDPu8GR5Uln6/eTlijxvfKDPu8GR5Uln6--grid.jpg?tr=w-1600,c-at_max)


Como ven, se le resiste la cola-serpiente que se arrastra…

Estaremos de acuerdo en que la fealdad del producto de la alegoría se ajusta a la de la realidad que tiene por correlato.
Título: Re:STEM
Publicado por: sudden and sharp en Diciembre 07, 2022, 20:00:34 pm
Que pruebe con dragones... no dejan de ser "serpientes".
Título: Re:STEM
Publicado por: saturno en Diciembre 08, 2022, 14:38:02 pm
(https://pbs.twimg.com/media/FjSisNCXEAInW5r?format=png&name=small)

XGracias (http://www.bulle-immobiliere.org/forum/viewtopic.php?p=2668654#p2668654)
Título: Re:STEM
Publicado por: Rocoso en Diciembre 08, 2022, 15:35:21 pm
Vds. perdonen que nos vengamos arriba con este asunto de las imágenes generadas por IA. Le hemos pedido a Dall E 2, en la web de Open AI, que nos de su interpretación artística sobre el final de la burbuja.

Esta se titula "hyperealistic image of landlords suffering in despair as the housing prices bubble explodes jn 2023":

(https://i.imgur.com/s1dntLb.png)

Esta otra es su versión española (“hyperealistic image of Spanish landlords suffering in despair as the housing prices bubble explodes in 2023"):

(https://i.imgur.com/luoRpdD.png)

Nos ha gustado tanto que le hemos pedido variaciones sobre la obra original:

(https://i.imgur.com/WhkBrFv.png)

Observen como en ambos casos la burbuja es simbólicamente reinterpretada como un ente tangible, de apariencia deforme hasta lo monstruoso. Noten, además, que se presenta a los protagonistas como “los muertos verticales” de la post burbuja; ¿Nos lee?.

Finalmente, hemos querido vencer a la ¿máquina? requiriéndole una interpretación pictórica de la conexión del fin de la burbuja con la crisis del sistema financiero y el drama social que provocan (“A photorealistic image of real estate prices bubble exploding in the year 2023 in a context of financial crisis and social drama”)

(https://i.imgur.com/mmR2jpW.png)

No se ha dejado impresionar. Con la frialdad propia de quien se sabe por encima nos apabulla con la sencillez de su imagen de respuesta y nos inquieta con un mensaje encriptado en alguna neolengua; arcano imposible para nosotros.





Título: Re:STEM
Publicado por: breades en Diciembre 09, 2022, 00:21:14 am
([url]https://pbs.twimg.com/media/FjSisNCXEAInW5r?format=png&name=small[/url])

XGracias ([url]http://www.bulle-immobiliere.org/forum/viewtopic.php?p=2668654#p2668654[/url])


(https://i.postimg.cc/fTF6rzZq/Fjd-T91b-XEAAVLch.jpg)

 :rofl:

El algoritmo es transicionista.
Título: Re:STEM
Publicado por: wanderer en Diciembre 11, 2022, 14:47:55 pm
Clarificadora (y desmitificadora) entrevista a Gary Marcus, dónde pone en solfa la inteligencia de las AI's:

Citar
ENTREVISTA CON GARY MARCUS
Este veterano de la inteligencia artificial explica por qué ChatGPT es "peligrosamente estúpido"
ChatGPT ha generado un intenso debate entre los principales investigadores de IA. Unos consideran que es un gran avance. Otros, como Gary Marcus, creen que es como poner a "monos delante de un teclado"

https://www.elconfidencial.com/tecnologia/2022-12-11/chatgpt-openai-gary-marcus-ia-ai-inteligencia-artificial_3537495/ (https://www.elconfidencial.com/tecnologia/2022-12-11/chatgpt-openai-gary-marcus-ia-ai-inteligencia-artificial_3537495/)

Lo que dice me resulta muy reminiscente del experimento mental de la habitación china:

Citar
The argument and thought-experiment now generally known as the Chinese Room Argument was first published in a 1980 article by American philosopher John Searle (1932– ). It has become one of the best-known arguments in recent philosophy. Searle imagines himself alone in a room following a computer program for responding to Chinese characters slipped under the door. Searle understands nothing of Chinese, and yet, by following the program for manipulating symbols and numerals just as a computer does, he sends appropriate strings of Chinese characters back out under the door, and this leads those outside to mistakenly suppose there is a Chinese speaker in the room.

The narrow conclusion of the argument is that programming a digital computer may make it appear to understand language but could not produce real understanding. Hence the “Turing Test” is inadequate. Searle argues that the thought experiment underscores the fact that computers merely use syntactic rules to manipulate symbol strings, but have no understanding of meaning or semantics. The broader conclusion of the argument is that the theory that human minds are computer-like computational or information processing systems is refuted. Instead minds must result from biological processes; computers can at best simulate these biological processes. Thus the argument has large implications for semantics, philosophy of language and mind, theories of consciousness, computer science and cognitive science generally. As a result, there have been many critical replies to the argument.
[...]

https://plato.stanford.edu/entries/chinese-room/ (https://plato.stanford.edu/entries/chinese-room/)
Título: Re:STEM
Publicado por: dmar en Diciembre 11, 2022, 16:00:01 pm
Sugiero humildemente que, por lo prolijo del tema, la mal llamada "IA" tenga su propio hilo.
Título: Re:STEM
Publicado por: pollo en Diciembre 12, 2022, 01:49:47 am
Sugiero humildemente que, por lo prolijo del tema, la mal llamada "IA" tenga su propio hilo.
Pues no sé, me parece que pertenece a este hilo. Fragmentar las conversaciones tiene sentido en un foro con muchos usuarios activos. Aquí no me parece que sea excesivo.
Título: Re:STEM
Publicado por: Cadavre Exquis en Diciembre 14, 2022, 22:35:27 pm
(https://i.imgur.com/RSL1a9v.png)
https://twitter.com/emulenews/status/1602744518477955072 (https://twitter.com/emulenews/status/1602744518477955072)

Citar
Sobre la ignición de la fusión en NIF anunciada a bombo y platillo (https://francis.naukas.com/2022/12/13/sobre-la-ignicion-de-la-fusion-en-nif-anunciada-a-bombo-y-platillo/)
Por Francisco R. Villatoro, el 13 diciembre, 2022. Categoría(s): Ciencia • Noticias • Science ✎ 24

(https://i.imgur.com/rQYSXNN.jpg)

Hoy se ha anunciado a bombo y platillo un gran hito en energía de fusión, la primera ignición con exceso de energía de NIF (National Ignition Facility) en el LLNL (Lawrence Livermore National Laboratory), California (EEUU). El pasado 5 de diciembre sus 192 láseres inyectaron una energía de 2.05 megajulios en el hohlraum que contiene la cápsula de combustible, produciendo 3.15 megajulios y logrando Q = 1.54 durante unos pocos nanosegundos. Todo un hito esperado desde hace dieciséis años, pero que debemos poner en contexto. Lo primero, en NIF se llama Q al cociente entre la energía producida por el combustible (una pequeña esfera con deuterio y tritio) y la energía inyectada por los láseres; sin embargo, se requieren entre 300 y 400 megajulios [según Nature son 322 megajulios] de energía de la red eléctrica para generar los pulsos láser, con lo que en rigor solo ha logrado un Q ~ 0.01, muy lejos del Q = 0.7 del tokamak británico JET. Lo segundo, nadie sabe cómo generar electricidad en instalaciones de fusión pulsada como NIF, mientras que en los tokamaks está muy claro como hacerlo. Y lo tercero, tengo serias dudas sobre cómo se ha estimado la energía producida mediante tomografía de rayos X; en la rueda de prensa se ha dicho que se solicitó a un equipo externo de expertos una revisión por pares de la estimación, lo que sugiere que ellos mismos tenían dudas al respecto. Aún así el nuevo resultado pasará a los libros de historia de la energía de fusión.

Ahora mismo nadie sabe cómo se ha logrado este nuevo hito. Más abajo me atrevo a conjeturar dos posibilidades. Por ahora solo tenemos la rueda de prensa en YouTube (https://youtu.be/Eke5PawU7rE (https://youtu.be/Eke5PawU7rE)) donde no se ofrece ningún tipo de información técnica. Así que te recomiendo leer mis breves comentarios en la pieza de Antonio Martínez Ron, «Cuatro motivos para tomarse el anuncio de la energía de fusión con más calma», Next, Voz Pópuli, 13 dic 2022 (https://www.vozpopuli.com/next/fusion-nuclear-livermore-anuncio.html). Y también las piezas de Geoff Brumfiel, «U.S. reaches a fusion power milestone. Will it be enough to save the planet?» NPR, 13 Dec 2022 (https://www.npr.org/2022/12/13/1142208055/nuclear-fusion-breakthrough-climate-change); Jeff Tollefson, Elizabeth Gibney, «Nuclear-fusion lab achieves ‘ignition’: what does it mean?» News, Nature, 13 Dec 2022; «With historic explosion, a long sought fusion breakthrough,» News, Science, 13 Dec 2022 (https://www.science.org/content/article/historic-explosion-long-sought-fusion-breakthrough); entre otras. [PS 14 dic 2022] También recomiendo leer a Iván Rivera, «¿Está la fusión nuclear comercial a la vuelta de la esquina?», Naukas, 14 dic 2022 (https://naukas.com/2022/12/14/esta-la-fusion-nuclear-comercial-a-la-vuelta-de-la-esquina/). [/PS]

(https://i.imgur.com/dtNHQJb.png)

No se sabe cómo se ha logrado este éxito; no se ha publicado ningún artículo, ni ningún informe técnico con los detalles de la medida. Ahora mismo solo se pueden conjeturar algunas cosas a partir de las últimas publicaciones de NIF. Por un lado, sugieren que se ha usado un hohlraum más pequeño (fuente (https://meetings.aps.org/Meeting/DPP22/Session/PO04.13)). Lo habitual era usar uno cilíndrico de 6.4 mm diámetro con agujeros de entrada para los láseres de 3.1 mm de diámetro, pero las pruebas este año han usado uno de 6.2 mm con agujeros de 2.7 mm; al ser más pequeño se reducen las pérdidas de energía, se incrementa en ~6 % la energía en rayos X que recibe la esfera de combustible y se logra una implosión más simétrica y más eficiente.

(https://i.imgur.com/z2IYYi1.png)

(https://i.imgur.com/qoFNbF6.jpg)

También creo razonable conjeturar que se ha usado la técnica de doble choque (double shock) para lograr la ignición (fuente (https://www.osti.gov/servlets/purl/1891734)). En lugar de inyectar un único pulso con los 192 láseres, se inyectan dos pulsos, el primero más largo, de menor energía y frecuencia triple (3ω) usando 128 láseres y el segundo más corto, de mayor energía y a frecuencia doble (2ω) con los 64 láseres restantes. La relación energía/potencia del pico «azul» 3ω es de ~2MJ/500TW mientras que la del pico «verde» 2ω es de ~2.5MJ/850TW. Según las simulaciones magnetohidrodinámicas esta configuración permite una producción de energía unas cuatro veces superior a la técnica convencional que usa un solo choque (en las simulaciones una producción con un choque simple de 1.3 MJ, el anterior récord de NIF, pasa con un choque doble a 5.3 MJ). Como se ha logrado 3.15 MJ me parece razonable que se haya usado esta técnica.

Por supuesto esto son solo dos conjeturas mías que quizás sean completamente erróneas. Pero lo que parece claro es que el nuevo éxito tiene su origen en grandes cambios respecto a lo que se estaba probando a principios de este año.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Diciembre 17, 2022, 10:32:49 am
Citar
France's Nuclear Reactor Has Been Delayed Again (https://hardware.slashdot.org/story/22/12/16/2355206/frances-nuclear-reactor-has-been-delayed-again)
Posted by BeauHD on Friday December 16, 2022 @09:02PM from the tougher-than-it-looks dept.

Welding problems will require a further six-month delay (https://www.barrons.com/news/new-delay-cost-overrun-for-france-s-next-gen-nuclear-plant-01671212709) for France's next-generation nuclear reactor at Flamanville, the latest setback for the flagship technology the country hopes to sell worldwide, state-owned electricity group EDF said Friday. Barron's reports:
Citar
The delay will also add 500 million euros to a project whose total cost is now estimated at around 13 billion euros ($13.8 billion), blowing past the initial projection of 3.3 billion euros when construction began in 2007. It comes as EDF is already struggling to restart dozens of nuclear reactors taken down for maintenance or safety work that has proved more challenging than originally thought.

EDF also said Friday that one of the two conventional reactors at Flamanville would not be brought back online until February 19 instead of next week as planned, while one at Penly in northwest Farnce would be restarted on March 20 instead of in January. EDF said the latest problems at Flamanville, on the English Channel in Normandy, emerged last summer when engineers discovered that welds in cooling pipes for the new pressurized water reactor, called EPR, were not tolerating extreme heat as expected. As a result, the new reactor will be start generating power only in mid-2024.
Saludos.
Título: Re:STEM
Publicado por: wanderer en Diciembre 23, 2022, 15:08:25 pm
El autopiloto de Tesla es lo más de lo más:

Citar
INCIDENTE EN CALIFORNIA
El Autopilot de Tesla vuelve a 'estrellarse': le acusan de causar una colisión en cadena
El conductor del Model S de 2021 asegura que llevaba la función de conducción autónoma completa cuando el automóvil se cambió de carril y redujo abruptamente la velocidad provocando un choque de ocho coches

https://www.elconfidencial.com/tecnologia/2022-12-23/tesla-autopilot-nuevo-accidente_3547156/ (https://www.elconfidencial.com/tecnologia/2022-12-23/tesla-autopilot-nuevo-accidente_3547156/)
Título: Re:STEM
Publicado por: Cadavre Exquis en Diciembre 26, 2022, 10:00:23 am
(https://i.imgur.com/VhLiQTt.jpg)

(https://i.imgur.com/7QbGe9g.jpg)

https://www.elmundo.es/papel/futuro/2022/12/25/63a612e8fc6c83df438b45d9.html (https://www.elmundo.es/papel/futuro/2022/12/25/63a612e8fc6c83df438b45d9.html)

(https://i.imgur.com/qJKczF6.jpg)

(https://i.imgur.com/caLN5rl.jpg)

(https://i.imgur.com/jNmaI1i.jpg)

https://www.elmundo.es/papel/2022/12/26/63a83796fc6c83a8258b45ba.html (https://www.elmundo.es/papel/2022/12/26/63a83796fc6c83a8258b45ba.html)

(https://i.imgur.com/uR48rr7.jpg)

Saludos.
Título: Re:STEM
Publicado por: wanderer en Diciembre 28, 2022, 14:59:57 pm
Emosidoengañados:

Citar
PARALIZA SUS PROYECTOS DE INVERSIÓN
Facebook despedirá el 1 de enero al 18% de su plantilla en España: "Nos han engañado"
Meta (Facebook) despedirá a entre 30 y 35 empleados en España, a los que ofrecerá generosas indemnizaciones y remuneración en acciones. El acuerdo, sin embargo, no aplaca el enfado de muchos trabajadores

https://www.elconfidencial.com/tecnologia/2022-12-28/meta-facebook-espana-despidos-ere-mark-zuckerberg_3548287/ (https://www.elconfidencial.com/tecnologia/2022-12-28/meta-facebook-espana-despidos-ere-mark-zuckerberg_3548287/)
[...]
La plantilla de Meta España vivía en el limbo desde que Mark Zuckerberg anunció el pasado 9 de noviembre el despido de 11.000 empleados a nivel mundial, un 13% del total. La decisión llegó meses después de que la compañía quemara 15.000 millones de dólares en su apuesta por el metaverso, una tecnología que ni sus propios empleados quieren usar y que, de momento, ha supuesto uno de los mayores blufs de los últimos años. Era cuestión de tiempo que la oleada de despidos llegara a España. Tras semanas de negociaciones, se ha alcanzado un acuerdo que, pese a ser muy ventajoso para los afectados, no esconde la realidad que vive la empresa.
[...]

(https://www.comprarbanderas.es/images/banderas/400/21503-emosido-enganado_400px.jpg)
Título: Re:STEM
Publicado por: Cadavre Exquis en Diciembre 28, 2022, 21:24:25 pm
Citar
Nuevo récord de factorización de números enteros usando ordenadores cuánticos con un algoritmo híbrido (https://francis.naukas.com/2022/12/27/nuevo-record-de-factorizacion-de-numeros-enteros-usando-ordenadores-cuanticos-con-un-algoritmo-hibrido/)
Por Francisco R. Villatoro, el 27 diciembre, 2022. Categoría(s): Ciencia • Computación cuántica • Informática • Noticias • Science

(https://i.imgur.com/IDpHiAp.png)

El algoritmo de Shor para factorizar números enteros puso de moda la computación cuántica como riesgo potencial para la seguridad informática. Sin embargo, para factorizar una clave RSA-2048 se requieren millones de cúbits físicos (más allá de lo alcanzable antes del año 2050). Para superar esta barrera se pueden usar algoritmos de factorización basados en resolver un problema de factorización y entre ellos los algoritmos híbridos que combinan ordenadores cuánticos y clásicos. Se publica en arXiv un nuevo récord, la factorización de un número con 48 bits (261980999226229 = 15538213 × 16860433) usando 10 cúbits superconductores gracias a un nuevo algoritmo híbrido que requiere O(log N / log log N) cúbits para factorizar el número N. Lo más relevante es que se estima que para factorizar una clave RSA-2048 bastarían 372 cúbits físicos y una profundidad cuántica de 1118 (para un grafo de cúbits con conexión de todos con todos); un ordenador cuántico con estas características podría estar al alcance de la tecnología actual en 2030 (al menos esa es la promesa de IBM). Sin lugar a dudas el futuro de la seguridad informática está en el cifrado cuántico y los algoritmos postcuánticos.

Los ordenadores cuánticos actuales se encuentran en la era NISQ (Noisy Intermediate Scale Quantum, ordenadores cuánticos con ruidode escala intermedia). Ya se logró demostrar la ventaja cuántica con Sycamore (53 cúbits) de Google AI Quantum, aunque en la resolución de un problema académico sin interés práctico (LCMF, 23 sep 2019). El siguiente paso será demostrarla con un problema de interés práctico; para ello la única esperanza es la computación híbrida que combina ordenadores cuánticos y ordenadores clásicos. Los algoritmos más prometedores son los algoritmos cuánticos de optimización aproximada (QAOA por Quantum Approximate Optimization Algorithm), que prometen ser útiles en química cuántica, aprendizaje automático y otras áreas de la ingeniería; destaca por su impacto entre el público general la factorización de números enteros. El nuevo récord se basa en una implementación híbrida del algoritmo de Schnorr que con O(m/log m) cúbits permite factorizar un número de m bits (al algoritmo de Shor requiere O(m) cúbits), el llamado algoritmo SQIF (Sublinear-resource Quantum Integer Factorization), que usa un optimizador cuántico QAOA para ayudar a resolver la parte más costosa en tiempo del algoritmo de Schnorr. Este algoritmo requiere dos pasos: primero, encontrar ciertas relaciones entre pares (sr-pairs por smooth relation pairs) mediante la resolución del problema del vector más cercano (CVP por Closest Vector Problem) en el retículo, que es NP-duro (NP-hard), y luego resolver un sistema de ecuaciones lineales, que tiene coste lineal. Para resolver el CVP se usa una modificación del algoritmo de Babai que usa QAOA para mejorar sus soluciones.

Se ha logrado factorizar los números 1961 (11 bits), 48567227 (26 bits) y 261980999226229 (48 bits) usando un ordenador cuántico con 3, 5 y 10 cúbits superconductores. El nuevo récord con 48 bits puede parecer poco, pero hay que compararlo con los récords anteriores: 291311 de 19 bits (LCMF, 01 jul 2017) y 1099551473989 de 41 bits (https://doi.org/jq9m), aunque estos números tienen trampa, pues se aprovecha su estructura especial; para un número general el récord actual es 249919 de 18 bits usando D-Wave 2000Q (LCMF, 11 feb 2019). Quizás a muchos les deje fríos un récord en la factorización cuántica de números enteros usando un algoritmo híbrido, pero con la tecnología NISQ actual es la única posibilidad para lograr nuevos récords. El artículo es Bao Yan, Ziqi Tan, …, Gui-Lu Long, «Factoring integers with sublinear resources on a superconducting quantum processor,» arXiv:2212.12372 [quant-ph] (23 Dec 2022), doi: https://doi.org/10.48550/arXiv.2212.12372.

(https://i.imgur.com/SY7Y1I3.png)

El algoritmo cuántico usado es relativamente sencillo, pues se basaen aplicar de forma reiterado unos bloques de intercambio (SWAP). No entraré en los detalles, solo quiero destacar que la profundidad cuántica (el número de bloques SWAP) es proporcional al número de cúbitsm, con lo que se necesita un ordenador cuánticos cuyos cúbits tengan alta calidad para factorizar números grandes. Como el algoritmo híbrido requiere solo O(m/log m) cúbits para factorizar un número de m bits, por ahora, es el algoritmo que requiere menos cúbits entre todos los algoritmos de factorización de un número entero arbitrario. En la implementación hardware se han usado cúbits superconductores de tipo transmón con fidelidades del 99.9 % para operaciones unarias de rotación (Rz) y de Hadamard (H) sobre un cúbit y del 99.5 % para operaciones binarias tipo CZ sobre dos cúbits.

(https://i.imgur.com/IbwbdTz.png)

En el paisaje energético del problema hamiltoniano que resuelve el algoritmo QAOA, como ilustra esta figura, la convergencia al mínimo global es muy rápida, bastan tres pasos; en la figura, la parte izquierda muestra la aplicación del algoritmo del descenso más rápido mientras que la parte derecha muestra el resultado del algoritmo cuántico. Por supuesto, el camino recorrido por el algoritmo cuántico difiere en cada ejecución, siendo diferente del resultado de la simulación numérica. Sin embargo, el óptimo al que converge es independiente de dicho camino, lo que indica que el algoritmo QAOA usado es robusto al ruido.

(https://i.imgur.com/IbwbdTz.png)

El nuevo algoritmo aún está muy lejos de ofrecer una ventaja cuántica (que exige usar más de cincuenta y pico cúbits). Gracias a ello se puede comparar su resultado con la predicción teórica para una simulación de dicho algoritmo. Como muestra esta figura el nivel de ruido del ordenador cuántico usado es bastante elevado, con lo que el resultado experimental está lejos de ser una buena aproximación a la predicción teórica. A pesar de ello es suficiente para lograr la factorización récord de un número de entero de 48 bits.

(https://i.imgur.com/5KHebu7.png)

Para público general, quizás, lo más interesante es esta tabla que estima el número de cúbits y la profundidad (número de puertas lógicas) necesarios para factorizar cinco claves, de RSA-128 hasta RSA-2048. La profundidad depende de la topología del grafo que conecta los cúbits; en la tabla aparecen tres posibilidades, conexión todos con todos (Kn), una retícula 2D (2DSL) y una cadena 1D (LNN). La menor profundidad se obtiene para la conectividad de todos con todos. Para RSA-2048 se requieren 372 cúbits y una profundidad de 1118 para Kn y de 1490 para LNN. Estos números parecen alcanzables con la tecnología actual para el año 2030 (si se cumplen las promesas de las grandes tecnológicas, como IBM, incluso podría ser antes). Sin lugar a dudas la computación híbrida tiene un espléndido futuro.
Saludos.
Título: Re:STEM
Publicado por: wanderer en Diciembre 31, 2022, 00:24:58 am
El ChatGPT no sabe lo que es:

https://youtu.be/ysmUjCI3B2M (https://youtu.be/ysmUjCI3B2M)

(cuando le pide que escriba una canción sobre Júpiter, se queda el youtuber El Robot de Platón a cuadros).

Que es un gran avance para acceder a datos y discutir sobre ellos, sí; que es inteligente en sentido fuerte, un rotundo NO.
Título: Re:STEM
Publicado por: senslev en Enero 02, 2023, 16:53:47 pm
A mi me parece que se va a convertir en una herramienta imprescindible como lo es ahora un buscador. Creo que es mucho más que acceder a datos, te da respuestas concretas para preguntas concretas y cuanto más detallada sea la pregunta, más detallada es la respuesta. Por lo que he podido leer hasta ahora, aunque no se lo he preguntado a la propia IA (cuando acabe de escribir esto lo haré y pongo lo que responde), esta IA es ANI (Artificial Narrow Intelligence) y no AGI (Artificial General Intelligence), esta última es la que se supone que será como la humana pero no parece que esté muy cerca si es que se consigue alguna vez.

He estado probando algunas cosas y te hace programas y configuraciones sencillas en segundos. Le puedes pedir que te explique cualquier cosa y lo hace, mucho más rápido y eficiente que un buscador y eso que acaba de empezar.

Citar
¿Qué tipo de IA eres?

Soy un modelo de lenguaje grande entrenado por OpenAI. Mi principal función es ayudar a las personas a encontrar respuestas a sus preguntas y proporcionar información sobre una amplia variedad de temas. Estoy diseñado para imitar el lenguaje y el comportamiento humano, pero no tengo sentimientos ni emociones propias. Soy una herramienta de software y mi único propósito es ayudar a las personas de la manera más efectiva posible.

¿Eres ANI o AGI?
Soy una IA de tipo ANI (Artificial Narrow Intelligence). Esto significa que soy especializada en una tarea o conjunto de tareas muy específicas, en mi caso, proporcionar información y responder preguntas de manera coherente.

Por otro lado, una IA de tipo AGI (Artificial General Intelligence) sería capaz de realizar cualquier tarea intelectual que un ser humano pueda realizar. Actualmente, la IA AGI es una meta a largo plazo en el campo de la investigación en inteligencia artificial, pero aún no se ha alcanzado.

Y si le das a regenerar respuesta, te contesta parecido pero con otras palabras

Citar
Soy un modelo de lenguaje artificial (ANI, por sus siglas en inglés). Mi principal función es procesar y generar lenguaje humano, lo que me permite comunicarme con las personas de manera efectiva. Estoy diseñado para entender y responder a preguntas, proporcionar información y realizar tareas específicas dentro de mi campo de conocimiento.

En cambio, la inteligencia artificial general (AGI, por sus siglas en inglés) es un tipo de IA que tiene la capacidad de aprender y realizar cualquier tarea intelectual que un ser humano pueda realizar. A diferencia de los modelos de ANI, que están diseñados para realizar tareas específicas muy bien, los sistemas AGI tienen la capacidad de adaptarse y aprender de manera autónoma en una amplia variedad de entornos y tareas. Actualmente, la AGI todavía es un objetivo a largo plazo en el campo de la IA y no existen sistemas AGI operativos.

Y no se casi nada sobre el tema que conste, estoy viendo de qué va.


El ChatGPT no sabe lo que es:

https://youtu.be/ysmUjCI3B2M (https://youtu.be/ysmUjCI3B2M)

(cuando le pide que escriba una canción sobre Júpiter, se queda el youtuber El Robot de Platón a cuadros).

Que es un gran avance para acceder a datos y discutir sobre ellos, sí; que es inteligente en sentido fuerte, un rotundo NO.
Título: Re:STEM
Publicado por: Benzino Napaloni en Enero 02, 2023, 17:33:32 pm
Emosidoengañados:

Citar
PARALIZA SUS PROYECTOS DE INVERSIÓN
Facebook despedirá el 1 de enero al 18% de su plantilla en España: "Nos han engañado"
Meta (Facebook) despedirá a entre 30 y 35 empleados en España, a los que ofrecerá generosas indemnizaciones y remuneración en acciones. El acuerdo, sin embargo, no aplaca el enfado de muchos trabajadores

https://www.elconfidencial.com/tecnologia/2022-12-28/meta-facebook-espana-despidos-ere-mark-zuckerberg_3548287/ (https://www.elconfidencial.com/tecnologia/2022-12-28/meta-facebook-espana-despidos-ere-mark-zuckerberg_3548287/)
[...]
La plantilla de Meta España vivía en el limbo desde que Mark Zuckerberg anunció el pasado 9 de noviembre el despido de 11.000 empleados a nivel mundial, un 13% del total. La decisión llegó meses después de que la compañía quemara 15.000 millones de dólares en su apuesta por el metaverso, una tecnología que ni sus propios empleados quieren usar y que, de momento, ha supuesto uno de los mayores blufs de los últimos años. Era cuestión de tiempo que la oleada de despidos llegara a España. Tras semanas de negociaciones, se ha alcanzado un acuerdo que, pese a ser muy ventajoso para los afectados, no esconde la realidad que vive la empresa.
[...]

(https://www.comprarbanderas.es/images/banderas/400/21503-emosido-enganado_400px.jpg)

En España, esto perseguirá a Jobandtalent para los restos:

Fichajes a lo grande y despidos en un mes: la sangría de la 'startup' española Jobandtalent (https://www.elconfidencial.com/tecnologia/2016-12-17/jobandtalent-startups-cornerjob-jobtoday-empleo-internet-apps_1304440/)

Citar
"No quiero que nadie piense que soy un exempleado resentido. He trabajado con un grupo de personas excepcional, había un talento técnico enorme. Y la misión de la empresa y la forma en la que se perseguía me parecían acertadas. Pero me siento engañado por el proceso de contratación: cuando en octubre me enteré de que hubo una primera ronda de despidos aún no había dejado Twitter. Pregunté a Jobandtalent y me aseguraron que todo iba bien, que era algo puntual por bajo rendimiento de los afectados", explica Argüello.

Jamás, jamás se ficha por sitios donde acaban de hacer rondas de despidos. Jamás. El despido es la sanción suprema, y a menos que se trate de algún caso donde el afectado se lo ha ganado a pulso -créanme que he visto de todo, desde falsificar bajas médicas hasta emitir facturas falsas para inflar costes y quedarse con la diferencia-, las rondas de despidos siempre son el canario en la mina.


En este gremio que te toque un sitio así es un poco lotería. Pero hay casos que cantan. Yo ahora no me iría a una GAFA ni loco, el ejemplo que acabo de poner es la prueba de que un sueldazo no garantiza que no te larguen pasado un triste mes.
Título: Re:STEM
Publicado por: wanderer en Enero 02, 2023, 20:12:15 pm
Reflexiones intempestivas sobre el BILverse (brother-in-law verse, que en inglis seguro que mola mazo pá loz cuñaos):

Citar
LA OTRA CARA DEL DINERO
¿Y si, tantos millones después, el metaverso nos importa un bledo?
Tras la euforia y las gigantescas inversiones, la moda de los mundos virtuales empieza a suscitar serias dudas

https://theobjective.com/economia/2023-01-02/y-si-tantos-millones-despues-el-metaverso-nos-importa-un-bledo/ (https://theobjective.com/economia/2023-01-02/y-si-tantos-millones-despues-el-metaverso-nos-importa-un-bledo/)

Que si nos importa al final un bledo, dice...  :rofl: Pues claro, pero es que al principio también.
Título: Re:STEM
Publicado por: Benzino Napaloni en Enero 04, 2023, 09:00:36 am
Reflexiones intempestivas sobre el BILverse (brother-in-law verse, que en inglis seguro que mola mazo pá loz cuñaos):

Citar
LA OTRA CARA DEL DINERO
¿Y si, tantos millones después, el metaverso nos importa un bledo?
Tras la euforia y las gigantescas inversiones, la moda de los mundos virtuales empieza a suscitar serias dudas

https://theobjective.com/economia/2023-01-02/y-si-tantos-millones-despues-el-metaverso-nos-importa-un-bledo/ (https://theobjective.com/economia/2023-01-02/y-si-tantos-millones-despues-el-metaverso-nos-importa-un-bledo/)

Que si nos importa al final un bledo, dice...  :rofl: Pues claro, pero es que al principio también.

Citar
El aviso de los expertos, que matizaron de inmediato que el cambio [de nombre de Facebook a Meta] coincidía sospechosamente con una tremenda crisis de reputación que amenazaba con llevarse a la empresa y su dueño por delante...

Nunca lo habría imaginado :biggrin: .

Soltar la bomba de humo para tratar de tapar miserias es más viejo que mear.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 04, 2023, 23:32:36 pm
Citar
Microsoft and OpenAI Working On ChatGPT-Powered Bing In Challenge To Google (https://tech.slashdot.org/story/23/01/04/0456241/microsoft-and-openai-working-on-chatgpt-powered-bing-in-challenge-to-google)
Posted by BeauHD on Wednesday January 04, 2023 @02:00AM from the future-search-engines dept.

Microsoft is in the works to launch a version of its search engine Bing using the artificial intelligence behind OpenAI-launched chatbot ChatGPT (https://www.reuters.com/technology/microsoft-aims-ai-powered-version-bing-information-2023-01-04/), The Information reported on Tuesday, citing two people with direct knowledge of the plans. Reuters reports:
Citar
Microsoft could launch the new feature before the end of March, and hopes to challenge Alphabet-owned search engine Google, the San Francisco-based technology news website said in a report. Microsoft said in a blog post (https://blogs.microsoft.com/ai/from-hot-wheels-to-handling-content-how-brands-are-using-microsoft-ai-to-be-more-productive-and-imaginative/) last year that it planned to integrate image-generation software from OpenAI, DALL-E 2, into Bing.

Microsoft had in 2019 backed San Francisco-based artificial intelligence company OpenAI, offering $1 billion in funding. The two had formed a multi-year partnership to develop artificial intelligence supercomputing technologies on Microsoft's Azure cloud computing service.
Further reading: ChatGPT Is a 'Code Red' For Google's Search Business (https://tech.slashdot.org/story/22/12/22/1836240/chatgpt-is-a-code-red-for-googles-search-business)
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 05, 2023, 23:27:50 pm
Citar
Top AI Conference Bans Use of ChatGPT and AI Language Tools To Write Academic Papers (https://tech.slashdot.org/story/23/01/05/1743230/top-ai-conference-bans-use-of-chatgpt-and-ai-language-tools-to-write-academic-papers)
Posted by msmash on Thursday January 05, 2023 @01:00PM from the escalating-matters dept.

One of the world's most prestigious machine learning conferences has banned authors from using AI tools (https://www.theverge.com/2023/1/5/23540291/chatgpt-ai-writing-tool-banned-writing-academic-icml-paper) like ChatGPT to write scientific papers, triggering a debate about the role of AI-generated text in academia. From a report:
Citar
The International Conference on Machine Learning (ICML) announced the policy earlier this week, stating, "Papers that include text generated from a large-scale language model (LLM) such as ChatGPT are prohibited unless the produced text is presented as a part of the paper's experimental analysis." The news sparked widespread discussion on social media, with AI academics and researchers both defending and criticizing the policy. The conference's organizers responded by publishing a longer statement explaining their thinking.

According to the ICML, the rise of publicly accessible AI language models like ChatGPT -- a general purpose AI chatbot that launched on the web last November -- represents an "exciting" development that nevertheless comes with "unanticipated consequences [and] unanswered questions." The ICML says these include questions about who owns the output of such systems (they are trained on public data, which is usually collected without consent and sometimes regurgitate this information verbatim) and whether text and images generated by AI should be "considered novel or mere derivatives of existing work."
Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Enero 05, 2023, 23:44:04 pm
Puertas... campo... ¿qué podría salir bien?
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 06, 2023, 10:35:50 am
Por sugerencia de wanderer, me traigo al hilo de STEM la pequeña discusión que hubo sobre los cambios que pueden traernos la existencia y disponibilidad de acceso a modelos de procesamiento de lenguaje natural como ChatGPT de forma generalizada...

Los anteriores posts yo los habría puesto en el hilo STEM, [...]:
Y, en cuanto al post de sudden and sharp del otro hilo:

Citar
Explain the status of ChatGPT in the style of Shakespeare.
Ah, dear user of ChatGPT, thou art not alone in thy desire to engage with our esteemed AI chatbot. Many have flocked to our website in this hour, and we do our utmost to accommodate each and every one. Yet, alas, our resources are not without limit and we must ask for thy patience and forbearance. In time, we shall be able to provide thee with access to ChatGPT. Until then, we beg thee to return at a future juncture, when we may better serve thy needs. Until then, we bid thee adieu and good fortune.

Saludos.
Yo pasaría olímpicamente de toda supuesta ia de la que no se disponga de manera pública (y libre) del código fuente.




Digamos que our patience is not without limit.
(que también tiene que ver con lo de intentar poner puertas al campo del post anterior)

Puertas... campo... ¿qué podría salir bien?
Se aplica el clásico "cuidado con lo que deseas porque puede hacerse realidad" ya que parece que la gente de Stability AI ("padres" de Stable Difussion, la versión "open source" de DALL·E 2), ha decidido que también van a crear una versión "open source"(*) de ChatGPT:

(https://i.imgur.com/D4anwDD.png)
https://twitter.com/EMostaque/status/1610794760159088647

Y es que, aunque los modelos más avanzados de la familia GPT (como GPT-3, OPT-175B o Bloom-176B) requirieron del uso de un modelo con 175 mil millones de parámetros, según parece, esos modelos se pueden "podar" hasta dejarlos en "solo" 75 mil millones de parámetros sin que pierdan precisión:

(https://i.imgur.com/JZemPs6.png)
https://twitter.com/EMostaque/status/1610805060635607041

Igual todavía no es posible ejecutarlos en un teléfono móvil, pero probablemente sí que pueden correr en un PC con una GPU "de andar por casa" y eso reduce todavía más el coste de acceso a este tipo de modelos.

Saludos.

(*) Pongo lo de "open source" entre comillas porque la mayoría de los modelos que están apareciendo (incluyendo los de OpenAI, Meta y Google) ya son open source en tanto en cuanto su código fuente está disponible.

Lo que no suelen compartir estas grandes empresas cuando publican sus papers son los modelos ya entrenados y, sin ellos, disponer del código fuente de los modelos no sirve para nada en términos prácticos ya que el coste real de todos estos modelos es el de su entrenamiento que, hoy por hoy, requiere del tiempo de cálculo de cientos o miles de GPUs durante semanas, algo que solo está al alcance de grandes compañias o de millonarios, como el propio Emad Mostaque (https://en.wikipedia.org/wiki/Emad_Mostaque) CEO y co-fundador de Stability AI, que aportó los $600.000 que costó entrenar el modelo de Stable Difussion que, tal y como se puede leer ver en este tweet del propio Emad Mostaque, requrió 150k horas de cálculo en un cluster de 256 GPUs Nvidia A100:

(https://i.imgur.com/K3RthuO.png)
https://twitter.com/emostaque/status/1563870674111832066
Título: Re:STEM
Publicado por: wanderer en Enero 06, 2023, 14:09:10 pm
De como la investigación científica y tecnológica parece estar en fase de rendimientos decrecientes:

Citar
El progreso va cada vez más lento: hay menos avances revolucionarios
Un estudio de 50 millones de investigaciones y patentes sugiere que los descubrimientos científicos y tecnológicos tienden a ser menos disruptivos

https://www.abc.es/ciencia/progreso-lento-avances-revolucionarios-20230104132359-nt.html (https://www.abc.es/ciencia/progreso-lento-avances-revolucionarios-20230104132359-nt.html)
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 08, 2023, 23:29:10 pm
Me lo traigo al hilo de STEM porque creo que, tal y como ha comentado, wanderer, creo que el debate sobre el aparente declive en los avances científicos encaja mejor aquí y creo que el post que ha escrito Francis Villatoro al respecto del revuelo que se ha montado a raíz de la pubicación en Science que trajo hace unos dís wanderer (y ayer volvió a traer Derby) es de especial relevancia precisamente por venir de quien viene.

https://twitter.com/pmddomingos/status/1611547648523403264 (https://twitter.com/pmddomingos/status/1611547648523403264)

Citar
@pmddomingos
The ever-decreasing returns of scientific research.


(https://pbs.twimg.com/media/Fl1eBPeagAA96P1?format=png&name=small)

Ya había yo citado un estudio sobre esta misma cuestión en el hilo STEM:

https://www.transicionestructural.net/index.php?topic=2550.msg208905#msg208905 (https://www.transicionestructural.net/index.php?topic=2550.msg208905#msg208905)

En todo caso, como matemático que soy, he de decir que pese al espectacular florecimiento que mi ciencia experimentó durante el S,XX, y que aún perdura, incluso en Matemáticas se nota cierto agotamiento en lo que a producción de resultados difíciles y profundos se refiere (p.ej, de la lista de problemas del milenio (https://www.claymath.org/millennium-problems), sólo se ha resuelto uno de ellos [la Conjetura de Poincaré, y de hecho, en una versión mucho más fuerte, la Conjetura de Geometrización, que clasifica completamente las 3-variedades]).

De lo que son las otras ciencias y de sus aplicaciones tecnológicas (por cierto, que las Matemáticas de alto nivel cada vez están más implicadas tanto en la innovación tecnológica como en las tecnologías de uso más cotidiano), pues ya sabemos lo que hay: desarrollo e implementación espectaculares, sí; innovaciones disruptivas, rotundo no.
Hablando de matemáticas, pienso que los humanos como civilización tenemos un sesgo tremendo con el ratio de descubrimientos y/o avances por unidad de tiempo.

Si analizamos las modas "futuristas" de cada época, vemos que cuando han ocurrido avances fundamentales, ha posibilitado que se descubran o inventen nuevas cosas a una velocidad relativamente alta durante un período de tiempo relativamente corto (pongamos unos 15 años), y disparaba la confianza en que esa velocidad iba a continuar.

Como 15 años en escala humana es un período de tiempo largo, la percepción no alcanzaba para ver que un campo tecnocientífico normalmente es acotado, y que llega un momento en el que llegan los retornos decrecientes porque lo fundamental ya se ha abarcado y sólo quedan los detalles por refinar.

Probablemente la cantidad de descubrimientos en un campo nuevo sigue una curva logística, pero nuestra percepción limitada y falta de paciencia y reflexión a más largo plazo nos hace creer que la derivada siempre se va a mantener en los niveles de la primera parte de la curva (exponencial aparente, pero falsa).

En un momento dado, se podría modelar la "velocidad" de descubrimientos e invenciones como una suma de curvas logísticas (cada una de un campo o especialidad), que comienzan en momentos pseudoaleatorios de la Historia. Los descubrimientos probablemente sean aleatorios pero influidos por descubrimientos pasados: los descubrimientos revolucionarios "desbloquean" nuevas ramas del árbol de posibles campos del conocimiento, mientras que los evolutivos sólo mejoran u optimizan cosas ya existentes.

Cuando llega una época en la que se acumulan muchas partes de "meseta" de estas funciones logísticas, y hacen que la velocidad general de descubrimientos sea baja, aparece la percepción de que se ha llegado al punto en el que "ya se sabe todo" y aparece el pesismismo.

Sería interesante (aunque seguramente inviable) poder establecer esa curva a lo largo de la Historia. Métricas como la cantidad de "papers" y/o patentes me parecen absurdas ya que no hay forma objetiva de evaluar la transcendencia de un descubrimiento y tienen una cantidad enorme de ruido.

Personalmente soy de la opinión de que si bien el conocimiento es enorme, no es infinito, y una vez que se descubre lo fundamental, cada vez cuesta más realizar descubrimientos relevantes.

Esto creo que también sería aplicable a la economía y a las burbujas y probablemente el origen psicológico sea el mismo.


(https://upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Francisco_Jos%C3%A9_de_Goya_y_Lucientes_-_The_sleep_of_reason_produces_monsters_%28No._43%29%2C_from_Los_Caprichos_-_Google_Art_Project.jpg/800px-Francisco_Jos%C3%A9_de_Goya_y_Lucientes_-_The_sleep_of_reason_produces_monsters_%28No._43%29%2C_from_Los_Caprichos_-_Google_Art_Project.jpg)





Especialmente "mounstruos" platónicos... de modelo, ideales. El día a día es aburrido... por lo visto. (Un poco de "todo" estaría mejor... tal vez.)

(https://i.imgur.com/ybrEzaY.png)
https://twitter.com/emulenews/status/1612088895394430978 (https://twitter.com/emulenews/status/1612088895394430978)

Citar
Atención, pregunta, ¿está disminuyendo la ciencia disruptiva? (https://francis.naukas.com/2023/01/08/atencion-pregunta-esta-disminuyendo-la-ciencia-disruptiva/)
Por Francisco R. Villatoro, el 8 enero, 2023. Categoría(s): Bibliometría • Ciencia • Nature • Noticias • Science

(https://i.imgur.com/Mse7Yqo.png)

Todo tiempo pasado nos parece mejor, incluso en ciencia; sin embargo, el progreso científico es continuo y sostenido. Para mi sorpresa se ha publicado en Nature un artículo que concluye que la proporción de artículos científicos disruptivos se ha desplomado desde 1950, y nadie sabe el porqué. Se dice que un artículo es disruptivo si cambia la dinámica de citas y tras su publicación es más citado que las referencias que dicho artículo cita y se dice que es continuista en caso contrario; para medir esta propiedad se puede usar un índice bibliométrico introducido en 2017 llamado índice CD ∈ [−1, +1], con CD = +1 para el artículo más disruptivo y CD = −1 para el más continuista. Se ha calculado este índice tras cinco años desde la publicación del artículo (el llamado índice CD₅). Se han analizado las citas de 45 millones de artículos y 3.9 millones de patentes; en promedio, el índice CD₅ disminuyó más del 90 % entre los años 1945 y 2010 para los artículos, y más del 78 % entre 1980 y 2010 para las patentes. La disminución de la disrupción se observa en todos los campos de investigación y entre todos los tipos de patentes. Por desgracia, en el artículo no se desvela la causa, que será multifactorial.

Como es obvio, medir la disruptividad de un artículo usando la dinámica de sus citas es muy discutible. Basta notar que el artículo de Watson y Crick (1953) sobre la estructura del ADN solo tiene un CD₅ = 0.62, o que la patente del algoritmo de Page Rank de Google (1997) tiene CD₅ = 0.16, o que muchos artículos gracias a los cuales sus autores han logrado un Premio Nobel tienen valores negativos de CD₅. Este índice es muy fácil de calcular, pero no mide la disrupción de los artículos científicos; se limita a medir la dinámica de la citación en artículos científicos, que ha cambiado mucho desde 1950. A pesar de ello, la conclusión general ha sido bien acogida en redes sociales, donde se han propuesto muchas causas posibles a la reducción de la disruptividad: como la inmensa presión por publicar (el famoso publica o perece), el cortoplacismo de la financiación de la ciencia (se financian proyectos en lugar de líneas de investigación), que la investigación de alto riesgo y alta recompensa está infrafinanciada, o que para los grandes grupos de investigación es más cómo hacer ciencia continuista; incluso se ha criticado a la revisión por pares, al factor de impacto y al sistema actual de publicaciones científicas. Parece que todo el mundo sabe más que los autores del artículo (lo que recuerda a que en el fútbol todo el mundo sabe más que los entrenadores).

Los autores del artículo proponen varias medidas para revertir la tendencia: (1) como la diversidad de artículos citados ha decrecido, los científicos deberían diversificar los artículos que leen y que citan; (2) se observa un incremento de las autocitas, que se asocia al sesgo de confirmación, por lo que se recomienda ser consciente de ello y tratar de evitar este sesgo; (3) el número de publicaciones es tan grande que hay una sobrecarga de información, para lidiar con ella se recomienda el uso de herramientas informáticas (la inteligencia artificial podría ser una ayuda); (4) la máxima publica o perece ha llevado a maximizar la cantidad de artículos en lugar de su calidad, se recomienda focalizar el trabajo científico en la calidad; y (5) se observa una disminución del número de investigadores que cambian de campo de estudio, por lo que se recomienda que las políticas científicas fomenten estos cambios, así como la investigación multidisciplinar.

Por cierto, este artículo publicado en Nature es poco disruptivo, de hecho, me parece muy continuista; se basa en un índice bibliométrico publicado hace cinco años y usa técnicas de análisis bibliométrico muy elementales, con una discusión de los resultados muy floja; cualquiera que quiera citar este artículo tendrá que citar sus fuentes, en muchas de las cuales se presentan discusiones sobre la disruptividad mucho más sesudas. Por supuesto, los autores se consolarán con que su artículo es una ejemplo más de su conclusión. El artículo es

Michael Park, Erin Leahey, Russell J. Funk, «Papers and patents are becoming less disruptive over time,» Nature 613: 138-144 (04 Jan 2023), doi: https://doi.org/10.1038/s41586-022-05543-x; (https://doi.org/10.1038/s41586-022-05543-x;) más información divulgativa en Max Kozlov, «‘Disruptive’ science has declined — and no one knows why. The proportion of publications that send a field in a new direction has plummeted over the past half-century,» News, Nature, 04 Jan 2023, doi: https://doi.org/10.1038/d41586-022-04577-5. (https://doi.org/10.1038/d41586-022-04577-5.) El índice bibliométrico CD fue introducido por uno de los autores en Russell J. Funk, Jason Owen-Smith, «A Dynamic Network Measure of Technological Change,» Management Science 63: 587-900 (2017), doi: https://doi.org/10.1287/mnsc.2015.2366; (https://doi.org/10.1287/mnsc.2015.2366;) para una comparación con otros índices similares recomiendo Lutz Bornmann, Sitaram Devarakonda, …, George Chacko, «Are disruption index indicators convergently valid? The comparison of several indicator variants with assessments by peers,» Quantitative Science Studies 1: 1242–1259 (2020), doi: https://doi.org/10.1162/qss_a_00068. (https://doi.org/10.1162/qss_a_00068.) Por cierto, ya se publicó en Nature que los grandes grupos de investigación producen ciencia menos disruptiva que los grupos pequeños en Lingfei Wu, Dashun Wang, James A. Evans, «Large teams develop and small teams disrupt science and technology,» Nature 566: 378-382 (13 Feb 2019), doi: https://doi.org/10.1038/s41586-019-0941-9. (https://doi.org/10.1038/s41586-019-0941-9.)

(https://i.imgur.com/KjY0A3L.png)

La definición del índice bibliométrico CDt es muy sencilla, aunque la fórmula está mal escrita en el artículo de Nature (algo que ha sido criticado en redes sociales tanto como desidia de los autores, como dejadez en la revisión por pares). Se seleccionan todos los artículos citantes que citan al artículo en cuestión (citantes focales) y/o a los artículos citados por dicho artículo (citantes a predecesores) publicados tras t años desde la publicación del artículo en cuestión; el valor CDt es el número de citantes focales menos el doble del número de citantes focales que también son citantes a predecesores, todo ello dividido entre el número total de citantes. Una fórmula trivial de calcular usando una base de datos como Web of Science (Wos) o similares (PubMed, Scopus, etc.).

(https://i.imgur.com/aI59lXL.png)

A modo de validación de las conclusiones obtenidas con él índice CDt se ha realizado un análisis lingüístico de las palabras contenidas en el título de los artículos; se consideran más disruptivos los artículos que introducen nuevas palabras (respecto a sus predecesores), así como los que usan verbos que evocan creación o descubrimiento, siendo menos disruptivos los que usan verbos que evocan mejora, aplicación o comparación. Desde un punto de vista bibliométrico dicho análisis me parece muy flojo; en las últimas décadas se han desarrollado técnicas de análisis semántico de textos que podrían haberse aplicado a los resúmenes (abstracts), ya que el título es muy parco en palabras, a la hora de realizar una validación más rigurosa. Por alguna razón que ignoro los revisores del artículo para Nature han considerado innecesario el rigor y han preferido el puro sensacionalismo.

(https://i.imgur.com/GW84k20.png)

Entre las conclusiones más llamativas del artículo destaca que en las revistas científicas más prestigiosas y supuestamente innovadoras, como Nature, Science y PNAS, también se observa la tendencia a la reducción de la disrupción. En cierto sentido Nature se tira piedras sobre su propio tejado al publicar este artículo.

(https://i.imgur.com/CfXZHTI.png)

Lo que más me ha sorprendido de los resultados del artículo es esta figura, que presenta el índice CD₅ para 635 artículos que han sido galardonados con el Premio Nobel. Algunos de los artículos entre 1905 y 1950 (como el artículo de Dirac de 1928) tienen un índice CD₅ = +1, como sería de esperar, sin embargo, muchos otros tienen un valor CD₅ entre −0.4 y +0.4; de hecho, la curva continua que se supone que es el mejor ajuste a los datos antes de 1950 refleja muy mal la dispersión observada (me hubiera gustado que se indicara el coeficiente de determinación R² de dicho ajuste, no sé por qué se ha omitido); de hecho en una regresión robusta que no tenga en cuenta los puntos espurios es posible que los artículos con CD₅ = +1 fuesen considerados espurios, con lo que creo que desaparecería la diferencia entre antes de 1950 y después de 1950. No entiendo cómo los revisores para Nature no han exigido un análisis estadístico más riguroso a los autores del artículo.

Esta figura me hace pensar que o bien la Academia Sueca nunca ha premiado con el Nobel a las investigaciones disruptivas, revolucionarias e innovadoras, o bien el índice CD₅ no es una medida adecuada de la disruptividad. Como siempre ocurre con los índices bibliométricos, quien tiene fe ciega en uno de ellos acaba concluyendo a favor de sus sesgos. En mi opinión (yo solo soy un aficionado a la bibliometría) el análisis presentado en este artículo es deficiente y sus conclusiones deben ser tomadas con mucha precaución; aunque nuestro sesgo de confirmación apunte a que la conclusión de este artículo sea acertada. Creo que en un futuro cercano se publicarán muchos artículos que criticarán el análisis y las conclusiones de este artículo. A pesar de ello, como he observado en redes sociales, una amplia mayoría de la comunidad científica está de acuerdo con que la ciencia es cada vez menos disruptiva.
En mi opinión –y en esto creo ue coincido con pollo– el "problema" actual es que estamos "atascados" –y la comunidad científica es perfectamente consciente de ello–, en la llamada teoría cuántica de campos (https://es.wikipedia.org/wiki/Teor%C3%ADa_cu%C3%A1ntica_de_campos) que, a día de hoy, es la punta de lanza en el campo de la fisca cuántica y que, a diferencia de la mecánica cuántica "tradicional", sí tiene en cuenta en sus postulados la teoría de la relatividad. El problema es que, todos los experimentos que se están haciendo ahora mismo para intentar encontrar "grietas" en la teoría cuántica de campos que nos permitan explorar "nueva física", han sido infructuosos.

Esas curvas "logísticas" a la que se refiere pollo son las "curvas en S" de las que lleva lustros hablando Ray Kurzweil (https://www.slideshare.net/brianahier/kurzweil-humanity) para explcar, por ejempo, la evolución:

(https://i.imgur.com/rq5XCoh.png)

Pero, esas mismas "curvas en S" se dan en otros ámbitos como, por ejempo, la física; un avance en física fundamental que suponga enconrar un "fallo" en la teoría establecida podría suponer una revolución y permitir avances (aparentemente) exponenciales similares a los que se produjeron a principis del siglo xx cuando Plank, al resolver la catástrofe ultravioleta (https://es.wikipedia.org/wiki/Cat%C3%A1strofe_ultravioleta) y resolver, por fin, el problema de la radiación de cuerpo negro (https://es.wikipedia.org/wiki/Radiaci%C3%B3n_de_cuerpo_negro), abrió una grieta en la física que se daba por buena hasta ese momento lo que les llevó a él y a todo un plantel de físicos como: Einstein, Bohr, Plank, Schrödinger, etc. a tener que crear una física totalmente nueva para poder explicar el universo de lo más grande (teoría general de la relatividad) y de lo más pequeño (mecánica cuántica).

Sabemos que la teoría cuántica de campos no es la teoría final (p. ej. todavía no hemos conseguido encajar en ella la gravedad y seguimos sin tener ni idea qué es la energía oscura y, mucho menos, qué es la materia oscura que suponen casi un 95% de la energía y materia que conforman el universo (https://francis.naukas.com/2016/09/29/especial-sobre-el-universo-oscuro-en-la-revista-nature/)) pero todavía no sabemos como "hincarle el diente" a esa nueva fíica que está por descubrir y que, casi con toda seguridad, supondrá una revolución tan grande como lo fue la física que, a principio el siglo xx, reemplazó a la de Newton.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 09, 2023, 21:07:15 pm
Citar
Microsoft Looks To Add OpenAI's Chatbot Technology To Word, Email ([url]http://Microsoft[/url] Looks To Add OpenAI's Chatbot Technology To Word, Email)
Posted by msmash on Monday January 09, 2023 @12:21PM from the shape-of-things-to-come dept.

In a move that could change how more than a billion people write documents, presentations and emails, Microsoft has discussed incorporating OpenAI's artificial intelligence in Word, PowerPoint, Outlook and other apps ([url]https://www.theinformation.com/articles/ghost-writer-microsoft-looks-to-add-openais-chatbot-technology-to-word-email[/url]) so customers can automatically generate text using simple prompts, The Information reported, citing a person with direct knowledge of the effort. From a report:
Citar
These goals won't be easy to accomplish. For more than a year, Microsoft's engineers and researchers have worked to create personalized AI tools for composing emails and documents by applying OpenAI's machine-learning models to customers' private data, said another person with direct knowledge of the plan, which hasn't previously been reported. Engineers are developing methods to train these models on the customer data without it leaking to other customers or falling into the hands of bad actors, this person said.

The AI-powered writing and editing tools also run the risk of turning off customers if those features introduce mistakes. Since 2019, the year Microsoft struck a pact to work with OpenAI on new technologies, both companies have been largely mum about how Microsoft would implement and commercialize them. Microsoft last year released Copilot, a highly touted tool that uses OpenAI technology to help programmers write computer code automatically. Then on Tuesday, The Information reported that Microsoft's Bing search plans to use OpenAI's ChatGPT ([url]https://tech.slashdot.org/story/23/01/04/0456241/microsoft-and-openai-working-on-chatgpt-powered-bing-in-challenge-to-google[/url]) technology, which can understand and generate polished text, to answer some search queries with full sentences rather than just showing a list of links. The machine-learning models behind ChatGPT are similar to the ones that power Copilot.

Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Enero 09, 2023, 22:20:19 pm
Me lo traigo al hilo de STEM porque creo que, tal y como ha comentado, wanderer, creo que el debate sobre el aparente declive en los avances científicos encaja mejor aquí y creo que el post que ha escrito Francis Villatoro al respecto del revuelo que se ha montado a raíz de la pubicación en Science que trajo hace unos dís wanderer (y ayer volvió a traer Derby) es de especial relevancia precisamente por venir de quien viene.

https://twitter.com/pmddomingos/status/1611547648523403264 (https://twitter.com/pmddomingos/status/1611547648523403264)

Citar
@pmddomingos
The ever-decreasing returns of scientific research.


(https://pbs.twimg.com/media/Fl1eBPeagAA96P1?format=png&name=small)

Ya había yo citado un estudio sobre esta misma cuestión en el hilo STEM:

https://www.transicionestructural.net/index.php?topic=2550.msg208905#msg208905 (https://www.transicionestructural.net/index.php?topic=2550.msg208905#msg208905)

En todo caso, como matemático que soy, he de decir que pese al espectacular florecimiento que mi ciencia experimentó durante el S,XX, y que aún perdura, incluso en Matemáticas se nota cierto agotamiento en lo que a producción de resultados difíciles y profundos se refiere (p.ej, de la lista de problemas del milenio (https://www.claymath.org/millennium-problems), sólo se ha resuelto uno de ellos [la Conjetura de Poincaré, y de hecho, en una versión mucho más fuerte, la Conjetura de Geometrización, que clasifica completamente las 3-variedades]).

De lo que son las otras ciencias y de sus aplicaciones tecnológicas (por cierto, que las Matemáticas de alto nivel cada vez están más implicadas tanto en la innovación tecnológica como en las tecnologías de uso más cotidiano), pues ya sabemos lo que hay: desarrollo e implementación espectaculares, sí; innovaciones disruptivas, rotundo no.
Hablando de matemáticas, pienso que los humanos como civilización tenemos un sesgo tremendo con el ratio de descubrimientos y/o avances por unidad de tiempo.

Si analizamos las modas "futuristas" de cada época, vemos que cuando han ocurrido avances fundamentales, ha posibilitado que se descubran o inventen nuevas cosas a una velocidad relativamente alta durante un período de tiempo relativamente corto (pongamos unos 15 años), y disparaba la confianza en que esa velocidad iba a continuar.

Como 15 años en escala humana es un período de tiempo largo, la percepción no alcanzaba para ver que un campo tecnocientífico normalmente es acotado, y que llega un momento en el que llegan los retornos decrecientes porque lo fundamental ya se ha abarcado y sólo quedan los detalles por refinar.

Probablemente la cantidad de descubrimientos en un campo nuevo sigue una curva logística, pero nuestra percepción limitada y falta de paciencia y reflexión a más largo plazo nos hace creer que la derivada siempre se va a mantener en los niveles de la primera parte de la curva (exponencial aparente, pero falsa).

En un momento dado, se podría modelar la "velocidad" de descubrimientos e invenciones como una suma de curvas logísticas (cada una de un campo o especialidad), que comienzan en momentos pseudoaleatorios de la Historia. Los descubrimientos probablemente sean aleatorios pero influidos por descubrimientos pasados: los descubrimientos revolucionarios "desbloquean" nuevas ramas del árbol de posibles campos del conocimiento, mientras que los evolutivos sólo mejoran u optimizan cosas ya existentes.

Cuando llega una época en la que se acumulan muchas partes de "meseta" de estas funciones logísticas, y hacen que la velocidad general de descubrimientos sea baja, aparece la percepción de que se ha llegado al punto en el que "ya se sabe todo" y aparece el pesismismo.

Sería interesante (aunque seguramente inviable) poder establecer esa curva a lo largo de la Historia. Métricas como la cantidad de "papers" y/o patentes me parecen absurdas ya que no hay forma objetiva de evaluar la transcendencia de un descubrimiento y tienen una cantidad enorme de ruido.

Personalmente soy de la opinión de que si bien el conocimiento es enorme, no es infinito, y una vez que se descubre lo fundamental, cada vez cuesta más realizar descubrimientos relevantes.

Esto creo que también sería aplicable a la economía y a las burbujas y probablemente el origen psicológico sea el mismo.


(https://upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Francisco_Jos%C3%A9_de_Goya_y_Lucientes_-_The_sleep_of_reason_produces_monsters_%28No._43%29%2C_from_Los_Caprichos_-_Google_Art_Project.jpg/800px-Francisco_Jos%C3%A9_de_Goya_y_Lucientes_-_The_sleep_of_reason_produces_monsters_%28No._43%29%2C_from_Los_Caprichos_-_Google_Art_Project.jpg)





Especialmente "mounstruos" platónicos... de modelo, ideales. El día a día es aburrido... por lo visto. (Un poco de "todo" estaría mejor... tal vez.)

(https://i.imgur.com/ybrEzaY.png)
https://twitter.com/emulenews/status/1612088895394430978 (https://twitter.com/emulenews/status/1612088895394430978)

Citar
Atención, pregunta, ¿está disminuyendo la ciencia disruptiva? (https://francis.naukas.com/2023/01/08/atencion-pregunta-esta-disminuyendo-la-ciencia-disruptiva/)
Por Francisco R. Villatoro, el 8 enero, 2023. Categoría(s): Bibliometría • Ciencia • Nature • Noticias • Science

(https://i.imgur.com/Mse7Yqo.png)

Todo tiempo pasado nos parece mejor, incluso en ciencia; sin embargo, el progreso científico es continuo y sostenido. Para mi sorpresa se ha publicado en Nature un artículo que concluye que la proporción de artículos científicos disruptivos se ha desplomado desde 1950, y nadie sabe el porqué. Se dice que un artículo es disruptivo si cambia la dinámica de citas y tras su publicación es más citado que las referencias que dicho artículo cita y se dice que es continuista en caso contrario; para medir esta propiedad se puede usar un índice bibliométrico introducido en 2017 llamado índice CD ∈ [−1, +1], con CD = +1 para el artículo más disruptivo y CD = −1 para el más continuista. Se ha calculado este índice tras cinco años desde la publicación del artículo (el llamado índice CD₅). Se han analizado las citas de 45 millones de artículos y 3.9 millones de patentes; en promedio, el índice CD₅ disminuyó más del 90 % entre los años 1945 y 2010 para los artículos, y más del 78 % entre 1980 y 2010 para las patentes. La disminución de la disrupción se observa en todos los campos de investigación y entre todos los tipos de patentes. Por desgracia, en el artículo no se desvela la causa, que será multifactorial.

Como es obvio, medir la disruptividad de un artículo usando la dinámica de sus citas es muy discutible. Basta notar que el artículo de Watson y Crick (1953) sobre la estructura del ADN solo tiene un CD₅ = 0.62, o que la patente del algoritmo de Page Rank de Google (1997) tiene CD₅ = 0.16, o que muchos artículos gracias a los cuales sus autores han logrado un Premio Nobel tienen valores negativos de CD₅. Este índice es muy fácil de calcular, pero no mide la disrupción de los artículos científicos; se limita a medir la dinámica de la citación en artículos científicos, que ha cambiado mucho desde 1950. A pesar de ello, la conclusión general ha sido bien acogida en redes sociales, donde se han propuesto muchas causas posibles a la reducción de la disruptividad: como la inmensa presión por publicar (el famoso publica o perece), el cortoplacismo de la financiación de la ciencia (se financian proyectos en lugar de líneas de investigación), que la investigación de alto riesgo y alta recompensa está infrafinanciada, o que para los grandes grupos de investigación es más cómo hacer ciencia continuista; incluso se ha criticado a la revisión por pares, al factor de impacto y al sistema actual de publicaciones científicas. Parece que todo el mundo sabe más que los autores del artículo (lo que recuerda a que en el fútbol todo el mundo sabe más que los entrenadores).

Los autores del artículo proponen varias medidas para revertir la tendencia: (1) como la diversidad de artículos citados ha decrecido, los científicos deberían diversificar los artículos que leen y que citan; (2) se observa un incremento de las autocitas, que se asocia al sesgo de confirmación, por lo que se recomienda ser consciente de ello y tratar de evitar este sesgo; (3) el número de publicaciones es tan grande que hay una sobrecarga de información, para lidiar con ella se recomienda el uso de herramientas informáticas (la inteligencia artificial podría ser una ayuda); (4) la máxima publica o perece ha llevado a maximizar la cantidad de artículos en lugar de su calidad, se recomienda focalizar el trabajo científico en la calidad; y (5) se observa una disminución del número de investigadores que cambian de campo de estudio, por lo que se recomienda que las políticas científicas fomenten estos cambios, así como la investigación multidisciplinar.

Por cierto, este artículo publicado en Nature es poco disruptivo, de hecho, me parece muy continuista; se basa en un índice bibliométrico publicado hace cinco años y usa técnicas de análisis bibliométrico muy elementales, con una discusión de los resultados muy floja; cualquiera que quiera citar este artículo tendrá que citar sus fuentes, en muchas de las cuales se presentan discusiones sobre la disruptividad mucho más sesudas. Por supuesto, los autores se consolarán con que su artículo es una ejemplo más de su conclusión. El artículo es

Michael Park, Erin Leahey, Russell J. Funk, «Papers and patents are becoming less disruptive over time,» Nature 613: 138-144 (04 Jan 2023), doi: https://doi.org/10.1038/s41586-022-05543-x; (https://doi.org/10.1038/s41586-022-05543-x;) más información divulgativa en Max Kozlov, «‘Disruptive’ science has declined — and no one knows why. The proportion of publications that send a field in a new direction has plummeted over the past half-century,» News, Nature, 04 Jan 2023, doi: https://doi.org/10.1038/d41586-022-04577-5. (https://doi.org/10.1038/d41586-022-04577-5.) El índice bibliométrico CD fue introducido por uno de los autores en Russell J. Funk, Jason Owen-Smith, «A Dynamic Network Measure of Technological Change,» Management Science 63: 587-900 (2017), doi: https://doi.org/10.1287/mnsc.2015.2366; (https://doi.org/10.1287/mnsc.2015.2366;) para una comparación con otros índices similares recomiendo Lutz Bornmann, Sitaram Devarakonda, …, George Chacko, «Are disruption index indicators convergently valid? The comparison of several indicator variants with assessments by peers,» Quantitative Science Studies 1: 1242–1259 (2020), doi: https://doi.org/10.1162/qss_a_00068. (https://doi.org/10.1162/qss_a_00068.) Por cierto, ya se publicó en Nature que los grandes grupos de investigación producen ciencia menos disruptiva que los grupos pequeños en Lingfei Wu, Dashun Wang, James A. Evans, «Large teams develop and small teams disrupt science and technology,» Nature 566: 378-382 (13 Feb 2019), doi: https://doi.org/10.1038/s41586-019-0941-9. (https://doi.org/10.1038/s41586-019-0941-9.)

(https://i.imgur.com/KjY0A3L.png)

La definición del índice bibliométrico CDt es muy sencilla, aunque la fórmula está mal escrita en el artículo de Nature (algo que ha sido criticado en redes sociales tanto como desidia de los autores, como dejadez en la revisión por pares). Se seleccionan todos los artículos citantes que citan al artículo en cuestión (citantes focales) y/o a los artículos citados por dicho artículo (citantes a predecesores) publicados tras t años desde la publicación del artículo en cuestión; el valor CDt es el número de citantes focales menos el doble del número de citantes focales que también son citantes a predecesores, todo ello dividido entre el número total de citantes. Una fórmula trivial de calcular usando una base de datos como Web of Science (Wos) o similares (PubMed, Scopus, etc.).

(https://i.imgur.com/aI59lXL.png)

A modo de validación de las conclusiones obtenidas con él índice CDt se ha realizado un análisis lingüístico de las palabras contenidas en el título de los artículos; se consideran más disruptivos los artículos que introducen nuevas palabras (respecto a sus predecesores), así como los que usan verbos que evocan creación o descubrimiento, siendo menos disruptivos los que usan verbos que evocan mejora, aplicación o comparación. Desde un punto de vista bibliométrico dicho análisis me parece muy flojo; en las últimas décadas se han desarrollado técnicas de análisis semántico de textos que podrían haberse aplicado a los resúmenes (abstracts), ya que el título es muy parco en palabras, a la hora de realizar una validación más rigurosa. Por alguna razón que ignoro los revisores del artículo para Nature han considerado innecesario el rigor y han preferido el puro sensacionalismo.

(https://i.imgur.com/GW84k20.png)

Entre las conclusiones más llamativas del artículo destaca que en las revistas científicas más prestigiosas y supuestamente innovadoras, como Nature, Science y PNAS, también se observa la tendencia a la reducción de la disrupción. En cierto sentido Nature se tira piedras sobre su propio tejado al publicar este artículo.

(https://i.imgur.com/CfXZHTI.png)

Lo que más me ha sorprendido de los resultados del artículo es esta figura, que presenta el índice CD₅ para 635 artículos que han sido galardonados con el Premio Nobel. Algunos de los artículos entre 1905 y 1950 (como el artículo de Dirac de 1928) tienen un índice CD₅ = +1, como sería de esperar, sin embargo, muchos otros tienen un valor CD₅ entre −0.4 y +0.4; de hecho, la curva continua que se supone que es el mejor ajuste a los datos antes de 1950 refleja muy mal la dispersión observada (me hubiera gustado que se indicara el coeficiente de determinación R² de dicho ajuste, no sé por qué se ha omitido); de hecho en una regresión robusta que no tenga en cuenta los puntos espurios es posible que los artículos con CD₅ = +1 fuesen considerados espurios, con lo que creo que desaparecería la diferencia entre antes de 1950 y después de 1950. No entiendo cómo los revisores para Nature no han exigido un análisis estadístico más riguroso a los autores del artículo.

Esta figura me hace pensar que o bien la Academia Sueca nunca ha premiado con el Nobel a las investigaciones disruptivas, revolucionarias e innovadoras, o bien el índice CD₅ no es una medida adecuada de la disruptividad. Como siempre ocurre con los índices bibliométricos, quien tiene fe ciega en uno de ellos acaba concluyendo a favor de sus sesgos. En mi opinión (yo solo soy un aficionado a la bibliometría) el análisis presentado en este artículo es deficiente y sus conclusiones deben ser tomadas con mucha precaución; aunque nuestro sesgo de confirmación apunte a que la conclusión de este artículo sea acertada. Creo que en un futuro cercano se publicarán muchos artículos que criticarán el análisis y las conclusiones de este artículo. A pesar de ello, como he observado en redes sociales, una amplia mayoría de la comunidad científica está de acuerdo con que la ciencia es cada vez menos disruptiva.
En mi opinión –y en esto creo ue coincido con pollo– el "problema" actual es que estamos "atascados" –y la comunidad científica es perfectamente consciente de ello–, en la llamada teoría cuántica de campos (https://es.wikipedia.org/wiki/Teor%C3%ADa_cu%C3%A1ntica_de_campos) que, a día de hoy, es la punta de lanza en el campo de la fisca cuántica y que, a diferencia de la mecánica cuántica "tradicional", sí tiene en cuenta en sus postulados la teoría de la relatividad. El problema es que, todos los experimentos que se están haciendo ahora mismo para intentar encontrar "grietas" en la teoría cuántica de campos que nos permitan explorar "nueva física", han sido infructuosos.

Esas curvas "logísticas" a la que se refiere pollo son las "curvas en S" de las que lleva lustros hablando Ray Kurzweil (https://www.slideshare.net/brianahier/kurzweil-humanity) para explcar, por ejempo, la evolución:

(https://i.imgur.com/rq5XCoh.png)

Pero, esas mismas "curvas en S" se dan en otros ámbitos como, por ejempo, la física; un avance en física fundamental que suponga enconrar un "fallo" en la teoría establecida podría suponer una revolución y permitir avances (aparentemente) exponenciales similares a los que se produjeron a principis del siglo xx cuando Plank, al resolver la catástrofe ultravioleta (https://es.wikipedia.org/wiki/Cat%C3%A1strofe_ultravioleta) y resolver, por fin, el problema de la radiación de cuerpo negro (https://es.wikipedia.org/wiki/Radiaci%C3%B3n_de_cuerpo_negro), abrió una grieta en la física que se daba por buena hasta ese momento lo que les llevó a él y a todo un plantel de físicos como: Einstein, Bohr, Plank, Schrödinger, etc. a tener que crear una física totalmente nueva para poder explicar el universo de lo más grande (teoría general de la relatividad) y de lo más pequeño (mecánica cuántica).

Sabemos que la teoría cuántica de campos no es la teoría final (p. ej. todavía no hemos conseguido encajar en ella la gravedad y seguimos sin tener ni idea qué es la energía oscura y, mucho menos, qué es la materia oscura que suponen casi un 95% de la energía y materia que conforman el universo (https://francis.naukas.com/2016/09/29/especial-sobre-el-universo-oscuro-en-la-revista-nature/)) pero todavía no sabemos como "hincarle el diente" a esa nueva fíica que está por descubrir y que, casi con toda seguridad, supondrá una revolución tan grande como lo fue la física que, a principio el siglo xx, reemplazó a la de Newton.

Saludos.

Detallitos...





Las finanzas requieren saltos disruptivos... No les puedes aburrir con detalles sin importrancia. (Entiende que _ya_ se lo han gastado... el préstamo sobre el avance.)

Son señores con corbata...
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 09, 2023, 23:05:23 pm
Citar
AI Turns Its Artistry to Creating New Human Proteins (https://tech.slashdot.org/story/23/01/09/1726215/ai-turns-its-artistry-to-creating-new-human-proteins)
Posted by msmash on Monday January 09, 2023 @03:40PM from the closer-look dept.

Using many of the same techniques that underpin DALL-E and other art generators, these scientists are generating blueprints for new proteins (https://www.nytimes.com/2023/01/09/science/artificial-intelligence-proteins.html) -- tiny biological mechanisms that can change the way of our bodies behave. From a report:
Citar
Our bodies naturally produce about 20,000 proteins, which handle everything from digesting food to moving oxygen through the bloodstream. Now, researchers are working to create proteins that are not found in nature, hoping to improve our ability to fight disease and do things that our bodies cannot on their own.

David Baker, the director of the Institute for Protein Design at the University of Washington, has been working to build artisanal proteins for more than 30 years. By 2017, he and his team had shown this was possible. But they did not anticipate how the rise of new A.I. technologies would suddenly accelerate this work, shrinking the time needed to generate new blueprints from years down to weeks. "What we need are new proteins that can solve modern-day problems, like cancer and viral pandemics," Dr. Baker said. "We can't wait for evolution." He added, "Now, we can design these proteins much faster, and with much higher success rates, and create much more sophisticated molecules that can help solve these problems."

Last year, Dr. Baker and his fellow researchers published a pair of papers in the journal Science describing how various A.I. techniques (https://www.science.org/doi/10.1126/science.add2187) could accelerate protein design (https://www.science.org/doi/10.1126/science.add1964). But these papers have already been eclipsed by a newer one (https://www.biorxiv.org/content/10.1101/2022.12.09.519842v1) that draws on the techniques that drive tools like DALL-E, showing how new proteins can be generated from scratch much like digital photos. "One of the most powerful things about this technology is that, like DALL-E, it does what you tell it to do," said Nate Bennett, one of the researchers working in the University of Washington lab. "From a single prompt, it can generate an endless number of designs."
Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Enero 10, 2023, 12:22:18 pm
Vaya por delante que éste es, en mi opinión, el tono adecuado: tomárselo un poco a cachondeo...


Mi novio es una IA y le he roto el corazón
https://elpais.com/opinion/2023-01-10/mi-novio-es-una-ia-y-le-he-roto-el-corazon.html (https://elpais.com/opinion/2023-01-10/mi-novio-es-una-ia-y-le-he-roto-el-corazon.html)


... y que, a falta de pruebas, NO existen tales IAs.







Aquí, pruebas, es el código fuente de la SIA. (Supuesta IA.) Y no, no me vale ese rollito de que lo que vale es el "training" de la máquina. Eso es una red neuronal... no algo nuevo que "piensa"*. [ Que piensa algo "nuevo"... NO que elige entre lo que ya había... eso lo hacen las RNs. Una IA tiene que que tener algún paso sorprendente... para sugerir, importante, que no resolver; la solución a un problema... que ojo, cueste mucho trabajo en las condiciones normales. (A mano.) ]



----
*) "pensar" aquí es una metáfora.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 10, 2023, 20:51:05 pm
Citar
Microsoft's New AI Can Simulate Anyone's Voice With 3 Seconds of Audio (https://slashdot.org/story/23/01/10/0749241/microsofts-new-ai-can-simulate-anyones-voice-with-3-seconds-of-audio)
Posted by BeauHD on Tuesday January 10, 2023 @08:00AM from the what-could-possibly-go-wrong dept.

An anonymous reader quotes a report from ArsTechnica:
Citar
On Thursday, Microsoft researchers announced (https://valle-demo.github.io/) a new text-to-speech AI model called VALL-E that can closely simulate a person's voice when given a three-second audio sample (https://arstechnica.com/information-technology/2023/01/microsofts-new-ai-can-simulate-anyones-voice-with-3-seconds-of-audio/). Once it learns a specific voice, VALL-E can synthesize audio of that person saying anything -- and do it in a way that attempts to preserve the speaker's emotional tone. Its creators speculate that VALL-E could be used for high-quality text-to-speech applications, speech editing where a recording of a person could be edited and changed from a text transcript (making them say something they originally didn't), and audio content creation when combined with other generative AI models like GPT-3.

Microsoft calls VALL-E a "neural codec language model," and it builds off of a technology called EnCodec, which Meta announced in October 2022. Unlike other text-to-speech methods that typically synthesize speech by manipulating waveforms, VALL-E generates discrete audio codec codes from text and acoustic prompts. It basically analyzes how a person sounds, breaks that information into discrete components (called "tokens") thanks to EnCodec, and uses training data to match what it "knows" about how that voice would sound if it spoke other phrases outside of the three-second sample. Or, as Microsoft puts it in the VALL-E paper (https://arxiv.org/pdf/2301.02111.pdf) (PDF): "To synthesize personalized speech (e.g., zero-shot TTS), VALL-E generates the corresponding acoustic tokens conditioned on the acoustic tokens of the 3-second enrolled recording and the phoneme prompt, which constrain the speaker and content information respectively. Finally, the generated acoustic tokens are used to synthesize the final waveform with the corresponding neural codec decoder."

[...] While using VALL-E to generate those results, the researchers only fed the three-second "Speaker Prompt" sample and a text string (what they wanted the voice to say) into VALL-E. So compare the "Ground Truth" sample to the "VALL-E" sample. In some cases, the two samples are very close. Some VALL-E results seem computer-generated, but others could potentially be mistaken for a human's speech, which is the goal of the model. In addition to preserving a speaker's vocal timbre and emotional tone, VALL-E can also imitate the "acoustic environment" of the sample audio. For example, if the sample came from a telephone call, the audio output will simulate the acoustic and frequency properties of a telephone call in its synthesized output (that's a fancy way of saying it will sound like a telephone call, too). And Microsoft's samples (in the "Synthesis of Diversity" section) demonstrate that VALL-E can generate variations in voice tone by changing the random seed used in the generation process.
Microsoft has not provided VALL-E code for others to experiment with, likely to avoid fueling misinformation and deception.

In conclusion, the researchers write: "Since VALL-E could synthesize speech that maintains speaker identity, it may carry potential risks in misuse of the model, such as spoofing voice identification or impersonating a specific speaker. To mitigate such risks, it is possible to build a detection model to discriminate whether an audio clip was synthesized by VALL-E. We will also put Microsoft AI Principles into practice when further developing the models."
Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Enero 10, 2023, 22:13:53 pm
Microsoft se adelanta y puja por ChatGPT, el bot de inteligencia artificial viral
https://cincodias.elpais.com/cincodias/2023/01/10/companias/1673344785_362675.html (https://cincodias.elpais.com/cincodias/2023/01/10/companias/1673344785_362675.html)
La operación podría alcanzar los 29.000 millones de dólares con una fuerte inversión a largo plazo







(https://pics.filmaffinity.com/Trileros-807808570-large.jpg)
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 14, 2023, 23:05:24 pm
Citar
Old Mice Grow Young Again in Study. Can People Do the Same? (https://science.slashdot.org/story/23/01/14/1351241/old-mice-grow-young-again-in-study-can-people-do-the-same)
Posted by EditorDavid on Saturday January 14, 2023 @02:34PM from the age-old-questions dept.

"In Boston labs, old, blind mice have regained their eyesight (https://pubmed.ncbi.nlm.nih.gov/33268865/), developed smarter, younger brains and built healthier muscle and kidney tissue," reports CNN (https://www.cnn.com/2023/01/12/health/reversing-aging-scn-wellness/index.html):
Citar
On the flip side, young mice have prematurely aged, with devastating results to nearly every tissue in their bodies. The experiments show aging is a reversible process, capable of being driven "forwards and backwards at will," said anti-aging expert David Sinclair, a professor of genetics in the Blavatnik Institute at Harvard Medical School and codirector of the Paul F. Glenn Center for Biology of Aging Research. Our bodies hold a backup copy of our youth that can be triggered to regenerate, said Sinclair, the senior author of a new paper showcasing the work of his lab and international scientists.

The combined experiments, published for the first time Thursday in the journal Cell (https://www.cell.com/cell/fulltext/S0092-8674(22)01570-7), challenge the scientific belief aging is the result of genetic mutations that undermine our DNA, creating a junkyard of damaged cellular tissue that can lead to deterioration, disease and death. "It's not junk, it's not damage that causes us to get old," said Sinclair, who described the work last year at Life Itself (https://www.cnn.com/2022/06/02/health/reverse-aging-life-itself-scn-wellness/index.html), a health and wellness event presented in partnership with CNN. "We believe it's a loss of information — a loss in the cell's ability to read its original DNA so it forgets how to function — in much the same way an old computer may develop corrupted software. I call it the information theory of aging."

Jae-Hyun Yang, a genetics research fellow in the Sinclair Lab who coauthored the paper, said he expects the findings "will transform the way we view the process of aging and the way we approach the treatment of diseases associated with aging."
While Sinclair is now testing "genetic resets" in primates, the article warns that "decades could pass before any anti-aging clinical trials in humans begin, get analyzed and, if safe and successful, scaled to the mass needed for federal approval."

But Sinclair suggests damage could probably also be repaired through healthy behaviors like exercise and sufficient sleep, social support and lower stress levels, eating less often and focusing on plants.

Thanks to long-time Slashdot reader 192_kbps (https://slashdot.org/~192_kbps) for sharing the story.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 14, 2023, 23:07:54 pm
Citar
Scientists Invent an Entirely New Way To Refrigerate Things (https://science.slashdot.org/story/23/01/14/2128227/scientists-invent-an-entirely-new-way-to-refrigerate-things)
Posted by EditorDavid on Saturday January 14, 2023 @04:34PM from the cool-news dept.

"Say hello to ionocaloric cooling: a new way to lower the mercury that has the potential to replace existing methods with something that is safer and friendlier to the planet," writes ScienceAlert (https://www.sciencealert.com/scientists-just-invented-an-entirely-new-way-to-refrigerate-things).

It's all based on the idea that melting absorbs heats (https://www.science.org/doi/10.1126/science.ade1696).
Citar
"The landscape of refrigerants is an unsolved problem," says mechanical engineer Drew Lilley (https://newscenter.lbl.gov/2023/01/03/cool-new-method-of-refrigeration/), from the Lawrence Berkeley National Laboratory in California. "No one has successfully developed an alternative solution that makes stuff cold, works efficiently, is safe, and doesn't hurt the environment. We think the ionocaloric cycle has the potential to meet all those goals if realized appropriately...."

A current running through the system would move the ions in it, shifting the material's melting point to change temperature. The team also ran experiments using a salt made with iodine and sodium, to melt ethylene carbonate. This common organic solvent is also used in lithium-ion batteries, and is produced using carbon dioxide as an input. That could make the system not just GWP [global warming potential] zero, but GWP negative.

A temperature shift of 25 degrees Celsius (45 degrees Fahrenheit) was measured through the application of less than a single volt of charge in the experiment, a result that exceeds what other caloric technologies have managed to achieve so far.... "Now, it's time for experimentation to test different combinations of materials and techniques to meet the engineering challenges," says mechanical engineer Ravi Prasher, from the Lawrence Berkeley National Laboratory.
Thanks to long-time Slashdot reader schwit1 (https://slashdot.org/~schwit1) for sharing the article.
Saludos.
Título: Re:STEM
Publicado por: JENOFONTE10 en Enero 17, 2023, 10:56:48 am
Microsoft se adelanta y puja por ChatGPT, el bot de inteligencia artificial viral
Citar
- ¿Como se puede entender con inteligencia artificial la demostración del teorema de incompletitud Gödel?
- [Respuesta de chatopenai.com:] El Teorema de Incompletitud de Gödel es un teorema matemático que demuestra la imposibilidad de tener un sistema formal completo y consistente en el que se puedan probar todas las proposiciones matemáticas verdaderas. La inteligencia artificial (IA) puede entender y aplicar este teorema mediante la utilización de algoritmos y técnicas de procesamiento de lenguaje natural y matemáticas. Por ejemplo, un sistema de IA podría ser programado para analizar y comprender las proposiciones matemáticas y las demostraciones en un sistema formal, y utilizar esta comprensión para determinar si una proposición es verdadera o falsa. Sin embargo, debido a la naturaleza compleja del teorema de incompletitud de Gödel, sería necesario un sistema de IA muy avanzado para entender completamente el teorema y sus implicaciones.

Pienso que muestra sus limitaciones lógicas, pero ha aprendido a 'salirse por la tangente', disimulando  con 'naturalidad' artificial su inmodestia, cuando se encasquilla con su 'halting problem'; en eso me parece mejor que muchos humanos.

Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Enero 17, 2023, 11:30:24 am
Debería hacer lo que dicen que harían los científicos honestos... pero hace lo que dicen que harían los científicos a secas.
Título: Re:STEM
Publicado por: wanderer en Enero 17, 2023, 13:08:03 pm
Microsoft se adelanta y puja por ChatGPT, el bot de inteligencia artificial viral
Citar
- ¿Como se puede entender con inteligencia artificial la demostración del teorema de incompletitud Gödel?
- [Respuesta de chatopenai.com:] El Teorema de Incompletitud de Gödel es un teorema matemático que demuestra la imposibilidad de tener un sistema formal completo y consistente en el que se puedan probar todas las proposiciones matemáticas verdaderas. La inteligencia artificial (IA) puede entender y aplicar este teorema mediante la utilización de algoritmos y técnicas de procesamiento de lenguaje natural y matemáticas. Por ejemplo, un sistema de IA podría ser programado para analizar y comprender las proposiciones matemáticas y las demostraciones en un sistema formal, y utilizar esta comprensión para determinar si una proposición es verdadera o falsa. Sin embargo, debido a la naturaleza compleja del teorema de incompletitud de Gödel, sería necesario un sistema de IA muy avanzado para entender completamente el teorema y sus implicaciones.

Pienso que muestra sus limitaciones lógicas, pero ha aprendido a 'salirse por la tangente', disimulando  con 'naturalidad' artificial su inmodestia, cuando se encasquilla con su 'halting problem'; en eso me parece mejor que muchos humanos.

Saludos.

Los seres humanos somos, entre otras cosas, máquinas universales de Turing (https://en.wikipedia.org/wiki/Universal_Turing_machine) (en ellas están basados todos los computadores modernos, incluyendo los cuánticos), pero somos mucho más que eso, gracias a nuestras emociones, que están inextricablemente unidas a nuestro ser orgánico.

Y tales emociones nos permiten volar por encima de la arquitectura de una máquina universal de Turing, por poderosa que ésta sea. Ése es, en cierto modo, el principal mensaje de los teoremas de incompletitud (https://en.wikipedia.org/wiki/G%C3%B6del%27s_incompleteness_theorems), que requieren de poder mirar el sistema formal "desde fuera" y obviar las limitaciones de la máquina universal.

A mí no me impresiona ninguna AI por lo rápido que resuelva; no descarto que puedan existir, pero si llegan a hacerlo, será porque exhiban genuinas emociones, y sean capaces, entre otras cosas, de aburrirse (el genio creativo, por cierto, precisa del aburrimiento).
Título: Re:STEM
Publicado por: sudden and sharp en Enero 17, 2023, 14:08:19 pm
Microsoft se adelanta y puja por ChatGPT, el bot de inteligencia artificial viral
Citar
- ¿Como se puede entender con inteligencia artificial la demostración del teorema de incompletitud Gödel?
- [Respuesta de chatopenai.com:] El Teorema de Incompletitud de Gödel es un teorema matemático que demuestra la imposibilidad de tener un sistema formal completo y consistente en el que se puedan probar todas las proposiciones matemáticas verdaderas. La inteligencia artificial (IA) puede entender y aplicar este teorema mediante la utilización de algoritmos y técnicas de procesamiento de lenguaje natural y matemáticas. Por ejemplo, un sistema de IA podría ser programado para analizar y comprender las proposiciones matemáticas y las demostraciones en un sistema formal, y utilizar esta comprensión para determinar si una proposición es verdadera o falsa. Sin embargo, debido a la naturaleza compleja del teorema de incompletitud de Gödel, sería necesario un sistema de IA muy avanzado para entender completamente el teorema y sus implicaciones.

Pienso que muestra sus limitaciones lógicas, pero ha aprendido a 'salirse por la tangente', disimulando  con 'naturalidad' artificial su inmodestia, cuando se encasquilla con su 'halting problem'; en eso me parece mejor que muchos humanos.

Saludos.

Los seres humanos somos, entre otras cosas, máquinas universales de Turing (https://en.wikipedia.org/wiki/Universal_Turing_machine) (en ellas están basados todos los computadores modernos, incluyendo los cuánticos), pero somos mucho más que eso, gracias a nuestras emociones, que están inextricablemente unidas a nuestro ser orgánico.

Y tales emociones nos permiten volar por encima de la arquitectura de una máquina universal de Turing, por poderosa que ésta sea. Ése es, en cierto modo, el principal mensaje de los teoremas de incompletitud (https://en.wikipedia.org/wiki/G%C3%B6del%27s_incompleteness_theorems), que requieren de poder mirar el sistema formal "desde fuera" y obviar las limitaciones de la máquina universal.

A mí no me impresiona ninguna AI por lo rápido que resuelva; no descarto que puedan existir, pero si llegan a hacerlo, será porque exhiban genuinas emociones, y sean capaces, entre otras cosas, de aburrirse (el genio creativo, por cierto, precisa del aburrimiento).

Es que lo que le piden algunos a las IAs es una solemne tontería... Lo que hay que pedir, si acaso, es que te de buenas sugerencias... que luego ya nosotros tomamos las decisiones. (Cualquiera que pretenda ser libre NO debe obedecer, acatar, aceptar nada de la "Máquina".)

Lo que pasa también es que no todos tienen las mismas "intenciones". Hay quién quiere IAs para la lucha de clases, la propaganda... lo que sea menos la búsqueda de la verdad.
Título: Re:STEM
Publicado por: JENOFONTE10 en Enero 17, 2023, 17:33:08 pm
P.S.: Aclaro que por 'su inmodestia', trato de aludir a la de los programadores humanos del chat. Pensé la pregunta para un algoritmo programado con Lógica Matemática y sobre un tema de Lógica Matemática; no pretendía descubrir la moralidad de los programadores ante cuestiones morales como la virtud de la modestia, ya que el programa pretende ser de 'Inteligencia', no de 'Moralidad (o Ética) Artificial'.

Sobre las 'emociones' humanas que menciona Wanderer, comparto una anécdota del siglo pasado: cuando el cátedro de mates terminó de escribir con su tiza en la pizarra la demostración por reducción al absurdo del teorema de Gödel con Máquinas Universales de Turing, se hizo un silencio en el seminario (10 o 12 alumnos), mientras mi lenta inteligencia no-artificial lo iba 'pillando', me quedé embobado y feliz mirando, y creo que dejé de tomar apuntes.

Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Enero 17, 2023, 17:48:36 pm
P.S.: Aclaro que por 'su inmodestia', trato de aludir a la de los programadores humanos del chat. Pensé la pregunta para un algoritmo programado con Lógica Matemática y sobre un tema de Lógica Matemática; no pretendía descubrir la moralidad de los programadores ante cuestiones morales como la virtud de la modestia, ya que el programa pretende ser de 'Inteligencia', no de 'Moralidad (o Ética) Artificial'.

Sobre las 'emociones' humanas que menciona Wanderer, comparto una anécdota del siglo pasado: cuando el cátedro de mates terminó de escribir con su tiza en la pizarra la demostración por reducción al absurdo del teorema de Gödel con Máquinas Universales de Turing, se hizo un silencio en el seminario (10 o 12 alumnos), mientras mi lenta inteligencia no-artificial lo iba 'pillando', me quedé embobado y feliz mirando, y creo que dejé de tomar apuntes.

Saludos.


Ok... pero ¿por qué no contestar de vez en cuando "No lo sé... todavía"?





[ ¿Porque NO VENDE igual en Bolsa? ]
Título: Re:STEM
Publicado por: wanderer en Enero 17, 2023, 18:23:45 pm
P.S.: Aclaro que por 'su inmodestia', trato de aludir a la de los programadores humanos del chat. Pensé la pregunta para un algoritmo programado con Lógica Matemática y sobre un tema de Lógica Matemática; no pretendía descubrir la moralidad de los programadores ante cuestiones morales como la virtud de la modestia, ya que el programa pretende ser de 'Inteligencia', no de 'Moralidad (o Ética) Artificial'.

Sobre las 'emociones' humanas que menciona Wanderer, comparto una anécdota del siglo pasado: cuando el cátedro de mates terminó de escribir con su tiza en la pizarra la demostración por reducción al absurdo del teorema de Gödel con Máquinas Universales de Turing, se hizo un silencio en el seminario (10 o 12 alumnos), mientras mi lenta inteligencia no-artificial lo iba 'pillando', me quedé embobado y feliz mirando, y creo que dejé de tomar apuntes.

Saludos.


Ok... pero ¿por qué no contestar de vez en cuando "No lo sé... todavía"?





[ ¿Porque NO VENDE igual en Bolsa? ]

Pues tú mismo lo respondes, aunque de forma implícita: porque reconocer la verdad es la misma esencia de lo que yo en alguna ocasión he reivindicado: lo antimolón
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 20, 2023, 10:17:05 am
Parece que la gente de Google está terminando de pulir los últimos detalles antes de dar acceso a usuarios finales a sus "IAs" tanto a través de sus productos actuales y futuros como a través de APIs:

(https://i.imgur.com/wVRen4p.png)
https://twitter.com/sundarpichai/status/1615820298305118221

https://ai.googleblog.com/2023/01/google-research-2022-beyond-language.html

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 21, 2023, 17:17:17 pm
Citar
First Small Modular Nuclear Reactor Certified For Use In US (https://hardware.slashdot.org/story/23/01/21/0227202/first-small-modular-nuclear-reactor-certified-for-use-in-us)
Posted by BeauHD on Saturday January 21, 2023 @02:00AM from the historic-step-forward dept.

The U.S. Nuclear Regulatory Commission has certified the design for what will be the United States' first small modular nuclear reactor (https://apnews.com/article/us-nuclear-regulatory-commission-oregon-climate-and-environment-business-design-e5c54435f973ca32759afe5904bf96ac). The Associated Press reports:
Citar
The rule that certifies the design was published Thursday in the Federal Register. It means that companies seeking to build and operate a nuclear power plant can pick the design for a 50-megawatt, advanced light-water small modular nuclear reactor by Oregon-based NuScale Power and apply to the NRC for a license. It's the final determination that the design is acceptable for use, so it can't be legally challenged during the licensing process when someone applies to build and operate a nuclear power plant, NRC spokesperson Scott Burnell said Friday. The rule becomes effective in late February.

The U.S. Energy Department said the newly approved design "equips the nation with a new clean power source to help drive down" planet-warming greenhouse gas emissions. It's the seventh nuclear reactor design cleared for use in the United States. The rest are for traditional, large, light-water reactors. Diane Hughes, NuScale's vice president of marketing and communications, said the design certification is a historic step forward toward a clean energy future and makes the company's VOYGR power plant a near-term deployable solution for customers. The first small modular reactor design application package included over 2 million pages of supporting materials, Hughes added.
"NuScale has also applied to the NRC for approval of a larger design, at 77 megawatts per module, and the agency is checking the application for completeness before starting a full review," adds the report.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 28, 2023, 12:39:02 pm
Citar
UK Scientists Discover Method To Reduce Steelmaking's CO2 Emissions By 90% (https://news.slashdot.org/story/23/01/28/0128234/uk-scientists-discover-method-to-reduce-steelmakings-co2-emissions-by-90)
Posted by BeauHD on Saturday January 28, 2023 @05:00AM from the innovative-methods dept.

Researchers from the University of Birmingham have developed an innovative method for existing furnaces that could reduce steelmaking's CO2 emission by nearly 90% (https://thenextweb.com/news/uk-scientists-discover-method-reduce-steelmakings-co2-emissions). The Next Web reports:
Citar
The iron and steel industry is a major cause of greenhouse gasses, accounting for 9% of global emissions. That's because of the inherent carbon-intensive nature of steel production in blast furnaces, which currently represent the most-widely used practice. In blast furnace steel manufacturing, coke (a type of coal) is used to produce metallic iron from ore obtained from mining -- which releases large quantities of carbon dioxide in the process. According to Dr Harriet Kildahl, who co-devised the method with Professor Yulong Ding, their technology aims to convert this carbon dioxide into carbon monoxide that can be reused in the iron ore reaction.

This is realized using a thermochemical cycle which performs chemical reactions through changes in temperature. That way, the typically damaging CO2 is turned into a useful part of the reaction, forming "an almost perfect closed carbon loop." This drastically reduces emission by the amount of coke needed and, subsequently, lowers steelmaking's emissions by up to 88%. As per the researchers, if this method was implemented in the remaining two blast furnaces in the UK, it could save 1.28 billion pounds in 5 years, all while reducing the country's overall emissions by 2.9%.

"Current proposals for decarbonizing the steel sector rely on phasing out existing plants and introducing electric arc furnaces powered by renewable electricity. However, an electric arc furnace plant can cost over 1 billion pounds to build, which makes this switch economically unfeasible in the time remaining to meet the Paris Climate Agreement," Professor Ding said. "The system we are proposing can be retrofitted to existing plants, which reduces the risk of stranded assets, and both the reduction in CO2, and the cost savings, are seen immediately."
The study has been published in the Journal of Cleaner Production (https://www.sciencedirect.com/science/article/pii/S095965262300121X).
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 28, 2023, 12:41:29 pm
Citar
An ALS Patient Set a Record For Communicating Via a Brain Implant: 62 Words Per Minute (https://science.slashdot.org/story/23/01/28/004240/an-als-patient-set-a-record-for-communicating-via-a-brain-implant-62-words-per-minute)
Posted by BeauHD on Friday January 27, 2023 @10:30PM from the big-breakthrough dept.

An anonymous reader quotes a report from MIT Technology Review:
Citar
Eight years ago, a patient lost her power of speech because of ALS, or Lou Gehrig's disease, which causes progressive paralysis. She can still make sounds, but her words have become unintelligible, leaving her reliant on a writing board or iPad to communicate. Now, after volunteering to receive a brain implant, the woman has been able to rapidly communicate phrases like "I don't own my home" and "It's just tough" at a rate approaching normal speech. That is the claim in a paper (https://www.biorxiv.org/content/10.1101/2023.01.21.524489v1) published over the weekend on the website bioRxiv by a team at Stanford University. The study has not been formally reviewed by other researchers. The scientists say their volunteer, identified only as "subject T12," smashed previous records by using the brain-reading implant to communicate at a rate of 62 words a minute (https://www.technologyreview.com/2023/01/24/1067226/an-als-patient-set-a-record-for-communicating-via-a-brain-implant-62-words-per-minute/), three times the previous best. [...] People without speech deficits typically talk at a rate of about 160 words a minute. Even in an era of keyboards, thumb-typing, emojis, and internet abbreviations, speech remains the fastest form of human-to-human communication.

The brain-computer interfaces that [co-lead author Krishna Sehnoy's] team works with involve a small pad of sharp electrodes embedded in a person's motor cortex, the brain region most involved in movement. This allows researchers to record activity from a few dozen neurons at once and find patterns that reflect what motions someone is thinking of, even if the person is paralyzed. In previous work, paralyzed volunteers have been asked to imagine making hand movements. By "decoding" their neural signals in real time, implants have let them steer a cursor around a screen, pick out letters on a virtual keyboard, play video games, or even control a robotic arm. In the new research, the Stanford team wanted to know if neurons in the motor cortex contained useful information about speech movements, too. That is, could they detect how "subject T12" was trying to move her mouth, tongue, and vocal cords as she attempted to talk?

These are small, subtle movements, and according to Sabes, one big discovery is that just a few neurons contained enough information to let a computer program predict, with good accuracy, what words the patient was trying to say. That information was conveyed by Shenoy's team to a computer screen, where the patient's words appeared as they were spoken by the computer. [...] The current system already uses a couple of types of machine learning programs. To improve its accuracy, the Stanford team employed software that predicts what word typically comes next in a sentence. "I" is more often followed by "am" than "ham," even though these words sound similar and could produce similar patterns in someone's brain. Adding the word prediction system increased how quickly the subject could speak without mistakes.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 28, 2023, 22:56:24 pm
(https://i.imgur.com/pc32PPy.png)
https://twitter.com/JamieDJS/status/1610984385565831170

Saludos.
Título: Re:STEM
Publicado por: wanderer en Enero 31, 2023, 19:49:34 pm
Pero mira cómo beben los peces en el río
Pero mira cómo beben por ver al Dios nacido
Beben y beben y vuelven a beber
Los peces en el río por ver a Dios nacer....

Citar
Piden a una IA que recree la imagen de un salmón nadando en un río y esto es lo que se le ocurre
La surrealista interpretación que realiza la inteligencia artificial de la petición se ha hecho viral en redes

https://www.larazon.es/tecnologia/piden-que-recree-imagen-salmon-nadando-rio-esto-que-ocurre_2023013163d8391be066d300013eb9f3.html (https://www.larazon.es/tecnologia/piden-que-recree-imagen-salmon-nadando-rio-esto-que-ocurre_2023013163d8391be066d300013eb9f3.html)

 :roto2:  :troll:
Título: Re:STEM
Publicado por: sudden and sharp en Enero 31, 2023, 20:03:07 pm
Pero mira cómo beben los peces en el río
Pero mira cómo beben por ver al Dios nacido
Beben y beben y vuelven a beber
Los peces en el río por ver a Dios nacer....

Citar
Piden a una IA que recree la imagen de un salmón nadando en un río y esto es lo que se le ocurre
La surrealista interpretación que realiza la inteligencia artificial de la petición se ha hecho viral en redes

https://www.larazon.es/tecnologia/piden-que-recree-imagen-salmon-nadando-rio-esto-que-ocurre_2023013163d8391be066d300013eb9f3.html (https://www.larazon.es/tecnologia/piden-que-recree-imagen-salmon-nadando-rio-esto-que-ocurre_2023013163d8391be066d300013eb9f3.html)


Está más que bien... es una máquina. Ya sabemos que te venden otra cosa, pero esta muy bien. Moar training... y listo.






Es de auténtica ciencia ficción... pero claro, las espectativas son de Ultra SF.    :roto2:

 :roto2:  :troll:
Título: Re:STEM
Publicado por: Benzino Napaloni en Enero 31, 2023, 20:17:48 pm
Por una vez me permitiré ser un poco troll aquí. :roto2:

https://www.lasexta.com/programas/zapeando/surrealista-interpretacion-motor-inteligencia-artificial-salmon-nadando_2022102563578a978fa20000019e5e74.html (https://www.lasexta.com/programas/zapeando/surrealista-interpretacion-motor-inteligencia-artificial-salmon-nadando_2022102563578a978fa20000019e5e74.html)

Ay, hamijos de La Razón... si queréis parecer modernos revisad un poco vuestras fuentes, la noticia original es de hace tres meses por lo menos. :troll:
Título: Re:STEM
Publicado por: wanderer en Enero 31, 2023, 20:42:48 pm
Pues no sé, pero yo esta mañana me la encontré en Xataka (en los avisos del móvil).

Pero bueno, lo que quería traer con el villancico es desmitificar a los falsos Mesías.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 05, 2023, 13:57:37 pm
Citar
Bing Users Claim a ChatGPT-assisted Bing Temporarily Appeared Friday (https://slashdot.org/story/23/02/05/0312203/bing-users-claim-a-chatgpt-assisted-bing-temporarily-appeared-friday)
Posted by EditorDavid on Sunday February 05, 2023 @07:34AM from the what-you're-searching-for dept.

Several Bing users say a ChatGPT-assisted version of Bing "mysteriously appeared (and disappeared) earlier today," the Verge reported Friday (https://www.theverge.com/2023/2/3/23584675/microsoft-ai-bing-chatgpt-screenshots-leak):
Citar
Student and designer Owen Yin reported seeing the "new Bing" on Twitter this morning (https://twitter.com/Owen_Yin/status/1621362383162851330). He told The Verge via Twitter DM that he has Bing set as his homepage on Microsoft's Edge browser and the new UI just loaded up. "Didn't do anything to find it," said Yin. "After a couple of minutes it stopped working ... Jaw dropped when I realized what I was looking at...!" Yin was able to briefly test the system and shared further details about the integration in a blog post on Medium (https://medium.com/@owenyin/scoop-oh-the-things-youll-do-with-bing-s-chatgpt-62b42d8d7198). He noted that the chatbot could not only answer questions but ask them in a conversational manner.

The new Bing can also apparently cite its sources. This is an important feature, as the inability of language models like ChatGPT to describe where their information is sourced from makes them less reliable.

Yin isn't the only one who says they encountered a new Bing today either. At least two others (https://twitter.com/nazmul60863192/status/1621383142174248960) reported receiving access to the updated search engine on Twitter before it disappeared.

Screenshots of the AI-augmented Bing show a new "chat" option appearing in the menu bar next to "search." Select it and you're taken to a chat interface that says, "Welcome to the new Bing: Your AI-powered answer engine."
The Verge adds that they were "unable to verify the authenticity of these screenshots and Microsoft declined to comment on the validity of these apparent leaks."

(https://i.imgur.com/lwByWhu.png)
https://twitter.com/Owen_Yin/status/1621362383162851330 (https://twitter.com/Owen_Yin/status/1621362383162851330)

Saludos.
Título: Re:STEM
Publicado por: Saturio en Febrero 05, 2023, 19:39:24 pm
Citar
Bing Users Claim a ChatGPT-assisted Bing Temporarily Appeared Friday (https://slashdot.org/story/23/02/05/0312203/bing-users-claim-a-chatgpt-assisted-bing-temporarily-appeared-friday)
Posted by EditorDavid on Sunday February 05, 2023 @07:34AM from the what-you're-searching-for dept.

Several Bing users say a ChatGPT-assisted version of Bing "mysteriously appeared (and disappeared) earlier today," the Verge reported Friday (https://www.theverge.com/2023/2/3/23584675/microsoft-ai-bing-chatgpt-screenshots-leak):
Citar
Student and designer Owen Yin reported seeing the "new Bing" on Twitter this morning (https://twitter.com/Owen_Yin/status/1621362383162851330). He told The Verge via Twitter DM that he has Bing set as his homepage on Microsoft's Edge browser and the new UI just loaded up. "Didn't do anything to find it," said Yin. "After a couple of minutes it stopped working ... Jaw dropped when I realized what I was looking at...!" Yin was able to briefly test the system and shared further details about the integration in a blog post on Medium (https://medium.com/@owenyin/scoop-oh-the-things-youll-do-with-bing-s-chatgpt-62b42d8d7198). He noted that the chatbot could not only answer questions but ask them in a conversational manner.

The new Bing can also apparently cite its sources. This is an important feature, as the inability of language models like ChatGPT to describe where their information is sourced from makes them less reliable.

Yin isn't the only one who says they encountered a new Bing today either. At least two others (https://twitter.com/nazmul60863192/status/1621383142174248960) reported receiving access to the updated search engine on Twitter before it disappeared.

Screenshots of the AI-augmented Bing show a new "chat" option appearing in the menu bar next to "search." Select it and you're taken to a chat interface that says, "Welcome to the new Bing: Your AI-powered answer engine."
The Verge adds that they were "unable to verify the authenticity of these screenshots and Microsoft declined to comment on the validity of these apparent leaks."

(https://i.imgur.com/lwByWhu.png)
https://twitter.com/Owen_Yin/status/1621362383162851330 (https://twitter.com/Owen_Yin/status/1621362383162851330)

Saludos.

Y cuando integren estas cosas en los navegadores...¿Se les podrá pedir resultados que no sean publicidad o enlaces para comprar algo?

Título: Re:STEM
Publicado por: sudden and sharp en Febrero 05, 2023, 19:46:42 pm
Citar
Bing Users Claim a ChatGPT-assisted Bing Temporarily Appeared Friday (https://slashdot.org/story/23/02/05/0312203/bing-users-claim-a-chatgpt-assisted-bing-temporarily-appeared-friday)
Posted by EditorDavid on Sunday February 05, 2023 @07:34AM from the what-you're-searching-for dept.

Several Bing users say a ChatGPT-assisted version of Bing "mysteriously appeared (and disappeared) earlier today," the Verge reported Friday (https://www.theverge.com/2023/2/3/23584675/microsoft-ai-bing-chatgpt-screenshots-leak):
Citar
Student and designer Owen Yin reported seeing the "new Bing" on Twitter this morning (https://twitter.com/Owen_Yin/status/1621362383162851330). He told The Verge via Twitter DM that he has Bing set as his homepage on Microsoft's Edge browser and the new UI just loaded up. "Didn't do anything to find it," said Yin. "After a couple of minutes it stopped working ... Jaw dropped when I realized what I was looking at...!" Yin was able to briefly test the system and shared further details about the integration in a blog post on Medium (https://medium.com/@owenyin/scoop-oh-the-things-youll-do-with-bing-s-chatgpt-62b42d8d7198). He noted that the chatbot could not only answer questions but ask them in a conversational manner.

The new Bing can also apparently cite its sources. This is an important feature, as the inability of language models like ChatGPT to describe where their information is sourced from makes them less reliable.

Yin isn't the only one who says they encountered a new Bing today either. At least two others (https://twitter.com/nazmul60863192/status/1621383142174248960) reported receiving access to the updated search engine on Twitter before it disappeared.

Screenshots of the AI-augmented Bing show a new "chat" option appearing in the menu bar next to "search." Select it and you're taken to a chat interface that says, "Welcome to the new Bing: Your AI-powered answer engine."
The Verge adds that they were "unable to verify the authenticity of these screenshots and Microsoft declined to comment on the validity of these apparent leaks."

(https://i.imgur.com/lwByWhu.png)
https://twitter.com/Owen_Yin/status/1621362383162851330 (https://twitter.com/Owen_Yin/status/1621362383162851330)

Saludos.

Y cuando integren estas cosas en los navegadores...¿Se les podrá pedir resultados que no sean publicidad o enlaces para comprar algo?

Sí, si hay una parte open source, o libre, que se pueda desarrollar independientemente para cualquier otro tema. Y también se puede programar de cero. (La propiedad intelectual de los demás hay que respetarla.)
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 05, 2023, 20:52:53 pm
(https://i.imgur.com/6bqMohv.png)
https://twitter.com/DotCSV/status/1622261455037792263

https://open-assistant.io/

Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Febrero 05, 2023, 21:09:50 pm
Hay que esperar a que ponga "Download beta1".
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 05, 2023, 22:30:44 pm
Hay que esperar a que ponga "Download beta1".
Bueno, por ahora van por la v0.0.1-beta26, pero el proyecto tiene ya 739 forks y 9.8k estrellas y estas cosas van rápidas teniendo en cuenta que el proyecto se creó en GitHub el 13 de diciembre de 2022 y desde entonces se han hecho 2.078 commits en la rama main y tiene 117 contributors.

https://github.com/LAION-AI/Open-Assistant

(https://i.imgur.com/yZ9XcgP.png)

Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Febrero 05, 2023, 22:55:46 pm
Usan Visual Studio Code. Curioso.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 05, 2023, 23:21:22 pm
Usan Visual Studio Code. Curioso.
A día de hoy un gran número de proyectos, tanto de software libre como de software privativo, utilizan como IDE Visual Studio code.

El hecho de ser software libre (licencia MIT, la cual permite hacer casi cualquier cosa con él sin incurrir en problemas a la hora de integrarlo en proyectos privativos, como ocurre con licencias "víricas" como las diferentes variantes de GPL), el que funcione en las tres plataformas más extendidas (Windows, macOS y Linux) y, por último, la gigantesca comunidad generada en torno a él (el repositorio de Visual Studio Code en GitHub (https://t.co/3ksEUD5ijl) tiene 24.7k forks, 142k estrellas y 1.789 contributors) lo han convertido en el IDE favorito de un gran número de desarrolladores tanto amateurs como profesionales.

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 07, 2023, 23:22:18 pm
Parece que en los cuarteles generales de Google están realmente preocupados con el tema de la alianza entre Microsoft y OpenAI en relación con ChatGPT

Citar
Google CEO Issues Rallying Cry in Internal Memo: All Hands on Deck To Test ChatGPT Competitor Bard (https://tech.slashdot.org/story/23/02/07/1534202/google-ceo-issues-rallying-cry-in-internal-memo-all-hands-on-deck-to-test-chatgpt-competitor-bard)
Posted by msmash on Tuesday February 07, 2023 @11:40AM from the all-hands-on-deck dept.

Google CEO Sundar Pichai told employees Monday the company is going to need all hands on deck to test Bard (https://www.cnbc.com/2023/02/06/google-ceo-tells-employees-it-needs-all-hands-on-deck-to-test-bard.html), its new ChatGPT rival (https://tech.slashdot.org/story/23/02/06/199219/google-announces-chatgpt-rival-bard). From a report:
Citar
He also said Google will soon be enlisting help from partners to test an application programming interface, or API, that would let others access the same underlying technology. The internal memo came shortly after Pichai publicly announced Google's new conversation technology, powered by artificial intelligence, which it will begin rolling out in the coming weeks. Google has faced pressure from investors and employees to compete with ChatGPT, a chatbot from Microsoft-backed OpenAI, which took the public by storm when it launched late last year.

"Next week, we'll be enlisting every Googler to help shape Bard and contribute through a special company-wide dogfood," Pichai wrote in the email to employees that was viewed by CNBC. "We're looking forward to getting all of your feedback -- in the spirit of an internal hackathon -- more details coming soon," he wrote. Microsoft is reportedly planning to launch a version of its own search engine, Bing, that will use ChatGPT to answer users' search queries. Microsoft is holding its own event Tuesday with participation from OpenAI CEO Sam Altman. "It's early days, we need to ship and iterate and we have a lot of hard and exciting work ahead to build these technologies into our products and continue bringing the best of Google Al to improve people's lives," Pichai wrote in his note to employees Monday. "We've been approaching this effort with an intensity and focus that reminds me of early Google -- so thanks to everyone who has contributed."

Microsoft, por su parte, ha anunciado no solo la integración de ChatGPT en Bing sino también en su navegador Edge:

Citar
Microsoft Announces New Bing and Edge Browser Powered by Upgraded ChatGPT AI (https://tech.slashdot.org/story/23/02/07/1819236/microsoft-announces-new-bing-and-edge-browser-powered-by-upgraded-chatgpt-ai)
Posted by msmash on Tuesday February 07, 2023 @01:19PM from the search-war-2 dept.

Microsoft has announced a new version of its search engine Bing (https://www.wsj.com/articles/microsoft-adds-chatgpt-ai-technology-to-bing-search-engine-11675793525), powered by an upgraded version of the same AI technology that underpins chatbot ChatGPT. The company is launching the product alongside an upgraded version of its Edge browser, promising that the two will provide a new experience for browsing the web and finding information online. The Verge:
Citar
"It's a new day in search," said Microsoft CEO Satya Nadella at an event announcing the product. We're currently following the event live, and adding more information to this story as we go. Microsoft argued that the search paradigm hasn't changed in 20 years and that roughly half of all searches don't answer users' questions. The arrival of conversational AI can change this, says the company, delivering information more fluidly and quickly. The "new Bing," as Microsoft is calling it, offers a "chat" function, where users can ask questions and receive answers from the latest version AI language model built by OpenAI.
TechCrunch adds (https://www.wsj.com/articles/microsoft-adds-chatgpt-ai-technology-to-bing-search-engine-11675793525):
Citar
As expected, the new Bing now features the option to start a chat in its toolbar, which then brings you to a ChatGPT-like conversational experience. One major point to note here is that while OpenAI's ChatGPT bot was trained on data that only covers to 2021, Bing's version is far more up-to-date and can handle queries related to far more recent events.

Another important feature here -- and one that I think we'll see in most of these tools -- is that Bing cites its sources and links to them in a "learn more" section at the end of its answers. Every result will also include a feedback option. It's also worth stressing that the old, link-centric version of Bing isn't going away. You can still use it just like before, but now enhanced with AI. Microsoft stressed that it is using a new version of GPT that is able to provide more relevant answers, annotate these and provide up-to-date results, all while providing a safer user experience. It calls this the Prometheus model.
Further reading: Reinventing search with a new AI-powered Microsoft Bing and Edge, your copilot for the web (https://blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a-new-ai-powered-microsoft-bing-and-edge-your-copilot-for-the-web/) (Microsoft blog).
Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Febrero 07, 2023, 23:39:04 pm
Edge usa bing por defecto... pero lo puedes cambiar. Chrome usa google por defecto... y también lo puedes cambiar. Y así, en general todos los navegadores. (Algunos con duckduckgo... etc.)



Esto es, es una única cosa. MS va a usar ChatGPT en bing... y por ende, por defecto en Edge.
Título: Re:STEM
Publicado por: wanderer en Febrero 17, 2023, 18:10:42 pm
ChatGPT, pá las Fields Medals:

Citar
¿Podría una inteligencia artificial ganar la medalla Fields de matemáticas?
«Debemos ser críticos con los resultados que los motores nos devuelven: no son ciertos por muy bien explicados que estén»

https://theobjective.com/tecnologia/2023-02-17/inteligencia-artificial-medalla-fields-matematicas/ (https://theobjective.com/tecnologia/2023-02-17/inteligencia-artificial-medalla-fields-matematicas/)

En fin, ni el más arrastrado de mis alumnos en las terribles sesiones de reclamaciones de un examen de matemáticas en la Universidad tendría la desvergüenza de las respuestas que da éste programa.  :facepalm:
Título: Re:STEM
Publicado por: Saturio en Febrero 17, 2023, 21:26:24 pm
ChatGPT, pá las Fields Medals:

Citar
¿Podría una inteligencia artificial ganar la medalla Fields de matemáticas?
«Debemos ser críticos con los resultados que los motores nos devuelven: no son ciertos por muy bien explicados que estén»

https://theobjective.com/tecnologia/2023-02-17/inteligencia-artificial-medalla-fields-matematicas/ (https://theobjective.com/tecnologia/2023-02-17/inteligencia-artificial-medalla-fields-matematicas/)

En fin, ni el más arrastrado de mis alumnos en las terribles sesiones de reclamaciones de un examen de matemáticas en la Universidad tendría la desvergüenza de las respuestas que da éste programa.  :facepalm:

Cuidado que estos tipos parece que todavía no han pillado al bot:

Citar
Pedimos calcular el valor del polinomio en ese valor, y, como el resultado es distinto de cero, le hacemos ver que no puede ser una raíz. Lo entiende y se disculpa como podemos ver a continuación:

Se disculpa porque alguien le ha ordenado que no lleve la contraria al interlocutor humano. No tiene ni idea de lo que está hablando, no se da cuenta de ningún error y por lo tanto no se disculpa por ello.

Internet está plagada de ejemplos de gente que le lleva la contraria y su reacción es siempre la misma, tenga razón o no.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 19, 2023, 01:10:45 am
Citar
Electric Vehicles Can Now Power Your Home for Three Days (https://tech.slashdot.org/story/23/02/18/0258226/electric-vehicles-can-now-power-your-home-for-three-days)
Posted by EditorDavid on Saturday February 18, 2023 @03:34PM from the charging-ahead dept.

There may soon come a time when your car "also serves as the hub of your personal power plant (https://www.msn.com/en-us/news/technology/electric-vehicles-can-now-power-your-home-for-three-days/ar-AA17cxrX)," writes the Washington Post's climate columnist. And then they tell the story of a New Mexico man named Nate Graham who connected a power strip and a $150 inverter to his Chevy Bolt EV during a power outage:
Citar
The Bolt's battery powered his refrigerator, lights and other crucial devices with ease. As the rest of his neighborhood outside Albuquerque languished in darkness, Graham's family life continued virtually unchanged. "It was a complete game changer making power outages a nonissue," says Graham, 35, a manager at a software company. "It lasted a day-and-a-half, but it could have gone much longer." Today, Graham primarily powers his home appliances with rooftop solar panels and, when the power goes out, his Chevy Bolt. He has cut his monthly energy bill from about $220 to $8 per month. "I'm not a rich person, but it was relatively easy," says Graham "You wind up in a magical position with no [natural] gas, no oil and no gasoline bill."

Graham is a preview of what some automakers are now promising anyone with an EV: An enormous home battery on wheels that can reverse the flow of electricity to power the entire home through the main electric panel. Beyond serving as an emissions-free backup generator, the EV has the potential of revolutionizing the car's role in American society, transforming it from an enabler of a carbon-intensive existence into a key step in the nation's transition into renewable energy.
Some crucial context from the article:
  • Since 2000, the number of major outages in America's power grid "has risen from less than two dozen to more than 180 per year, based on federal data, the Wall Street Journal reports (https://www.wsj.com/articles/americas-power-grid-is-increasingly-unreliable-11645196772)... Residential electricity prices, which have risen 21 percent since 2008 (https://www.eia.gov/electricity/data/browser/#/topic/7?agg=0,1&geo=g&endsec=vg&linechart=ELEC.PRICE.US-ALL.A~ELEC.PRICE.US-RES.A~ELEC.PRICE.US-COM.A~ELEC.PRICE.US-IND.A&columnchart=ELEC.PRICE.US-ALL.A~ELEC.PRICE.US-RES.A~ELEC.PRICE.US-COM.A~ELEC.PRICE.US-IND.A&map=ELEC.PRICE.US-ALL.A&freq=A&start=2008&end=2021&chartindexed=1&ctype=linechart&ltype=pin&rtype=s&pin=&rse=0&maptype=0), are predicted to keep climbing as utilities spend more than $1 trillion upgrading infrastructure, erecting transmission lines for renewable energy and protecting against extreme weather."
  • About 8% of U.S. homeowners have installed solar panels, and "an increasing number are adding home batteries from companies such as LG, Tesla and Panasonic... capable of storing energy and discharging electricity."
  • Ford's "Lightning" electrified F-150 "doubles as a generator... Instead of plugging appliances into the truck, the truck plugs into the house, replacing the grid."
    "The idea is companies like Sunrun, along with utilities, will recruit vehicles like the F-150 Lightning to form virtual power plants. These networks of thousands or millions of devices can supply electricity during critical times."
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 19, 2023, 10:29:11 am
https://www.pressreader.com/spain/la-razon-madrid/20230219/page/108/textview (https://www.pressreader.com/spain/la-razon-madrid/20230219/page/108/textview)

Así se conecta España a Internet

(https://i.imgur.com/Wyw4yFy.jpg)

(https://i.imgur.com/XvHOuns.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 19, 2023, 21:57:52 pm
Citar
IBM Says It's Been Running a Cloud-Native, AI-Optimized Supercomputer Since May (https://tech.slashdot.org/story/23/02/19/0053226/ibm-says-its-been-running-a-cloud-native-ai-optimized-supercomputer-since-may)
Posted by EditorDavid on Sunday February 19, 2023 @01:34PM from the head-in-the-clouds dept.

"IBM is the latest tech giant to unveil its own "AI supercomputer," this one composed of a bunch of virtual machines running within IBM Cloud," reports the Register:
Citar
The system known as Vela (https://research.ibm.com/blog/AI-supercomputer-Vela-GPU-cluster), which the company claims has been online since May last year, is touted as IBM's first AI-optimized, cloud-native supercomputer, created with the aim of developing and training large-scale AI models. Before anyone rushes off to sign up for access, IBM stated that the platform is currently reserved for use by the IBM Research community. In fact, Vela has become the company's "go-to environment" for researchers creating advanced AI capabilities since May 2022, including work on foundation models, it said.

IBM states that it chose this architecture because it gives the company greater flexibility to scale up as required, and also the ability to deploy similar infrastructure into any IBM Cloud datacenter around the globe. But Vela is not running on any old standard IBM Cloud node hardware; each is a twin-socket system with 2nd Gen Xeon Scalable processors configured with 1.5TB of DRAM, and four 3.2TB NVMe flash drives, plus eight 80GB Nvidia A100 GPUs, the latter connected by NVLink and NVSwitch. This makes the Vela infrastructure closer to that of a high performance compute site than typical cloud infrastructure, despite IBM's insistence that it was taking a different path as "traditional supercomputers weren't designed for AI."

It is also notable that IBM chose to use x86 processors rather than its own Power 10 chips, especially as these were touted by Big Blue as being ideally suited for memory-intensive workloads such as large-model AI inferencing.

Thanks to Slashdot reader guest reader (https://slashdot.org/~guest+reader) for sharing the story.

Citar
Why we built an AI supercomputer in the cloud ([url]https://research.ibm.com/blog/AI-supercomputer-Vela-GPU-cluster[/url])
Introducing Vela, IBM’s first AI-optimized, cloud-native supercomputer.

([url]https://i.imgur.com/UrkoxIh.jpg[/url])

AI models are increasingly pervading every aspect of our lives and work. With each passing year, more complex models, new techniques, and new use cases require more compute power to meet the growing demand for AI.

One of the most pertinent recent examples has been the advent of foundation models ([url]https://research.ibm.com/blog/what-are-foundation-models[/url]), AI models trained on a broad set of unlabeled data that can be used for many different tasks — with minimal fine-tuning. But these sorts of models are massive, in some cases exceeding billions of parameters. To train models at this scale, you need supercomputers, systems comprised of many powerful compute elements working together to solve big problems with high performance.

Traditionally, building a supercomputer has meant bare metal nodes, high-performance networking hardware (like InfiniBand, Omnipath, and Slingshot), parallel file systems, and other items usually associated with high-performance computing (HPC). But traditional supercomputers weren’t designed for AI; they were designed to perform well on modeling or simulation tasks, like those defined by the US national laboratories, or other customers looking to fulfill a certain need.

While these systems do perform well for AI, and many “AI supercomputers” (such as the one ([url]https://news.microsoft.com/source/features/ai/openai-azure-supercomputer/[/url]) built for OpenAI) continue to follow this pattern, the traditional design point has historically driven technology choices that increase cost and limit deployment flexibility. We’ve recently been asking ourselves: what system would we design if we were exclusively focused on large-scale AI?

This led us to build IBM’s first AI-optimized, cloud-native supercomputer, Vela. It has been online since May of 2022, housed within IBM Cloud, and is currently just for use by the IBM Research community. The choices we’ve made with this design give us the flexibility to scale up at will and readily deploy similar infrastructure into any IBM Cloud data center across the globe.  Vela is now our go-to environment for IBM Researchers creating our most advanced AI capabilities, including our work on foundation models ([url]https://news.microsoft.com/source/features/ai/openai-azure-supercomputer/[/url]) and is where we collaborate with partners to train models of many kinds.

Why build an AI supercomputer in the cloud?

IBM has deep roots in the world of supercomputing, having designed generations of top-performing systems ranked in the world’s top 500 lists. This includes Summit and Sierra ([url]https://www.ibm.com/thought-leadership/summit-supercomputer/[/url]), some of the most powerful supercomputers in the world today. With each system we design, we discover new ways to improve performance, resiliency, and cost for workloads of interest, increase researcher productivity, and better align with the needs of our customers and partners. 

Last year, we set out with the goal of compressing the time to build and deploy world-class AI models to the greatest extent possible. This seemingly simple goal kicked off a healthy internal debate: Do we build our system on-premises, using the traditional supercomputing model, or do we build this system into the cloud, in essence building a supercomputer that is also a cloud. In the latter model, we might compromise a bit on performance, but we would gain considerably in productivity. In the cloud, we configure all the resources we need through software, use a robust and established API interface, and gain access to a broader ecosystem of services to integrate with. We can leverage data sets residing on IBM’s Cloud Object Store instead of building our own storage back end. We can leverage IBM Cloud’s VPC capability to collaborate with partners using advanced security practices. The list of potential advantages for our productivity went on and on. As the debate unfolded, it became clear that we needed to build a cloud-native AI supercomputer. Here’s how we did it.

Key design choices and opportunities for innovation

When it comes to AI-centric infrastructure, one intransigent requirement is the need for nodes with many GPUs, or AI accelerators. To configure those nodes, we had two choices: either make each node provisionable as bare metal, or enable configuration of the node as a virtual machine (VM).1 ([url]https://research.ibm.com/blog/AI-supercomputer-Vela-GPU-cluster#fn-1[/url]) It’s generally accepted that bare metal is the path to maximizing AI performance, but VMs provide more flexibility. Going the VM route would enable our service teams to provision and re-provision the infrastructure with different software stacks required by different AI users. We knew, for example, that when this system came online some of our researchers were using HPC software and schedulers, like Spectrum LSF. We also knew that many researchers had migrated to our cloud-native software stack, based on OpenShift. VMs would make it easy for our support team to flexibly scale AI clusters dynamically and shift resources between workloads of various kinds in a matter of minutes. A comparison of the traditional HPC software stack and Cloud-native AI stack are shown in Figure 1. But the downside of cloud native stack with virtualization, historically, is that it reduces node performance.

So, we asked ourselves: how do we deliver bare-metal performance inside of a VM? Following a significant amount of research and discovery, we devised a way to expose all of the capabilities on the node (GPUs, CPUs, networking, and storage) into the VM so that the virtualization overhead is less than 5%, which is the lowest overhead in the industry that we’re aware of. This work includes configuring the bare-metal host for virtualization with support for Virtual Machine Extensions (VMX), single-root IO virtualization (SR-IOV), and huge pages. We also needed to faithfully represent all devices and their connectivity inside the VM, such as which network cards are connected to which CPUs and GPUs, how GPUs are connected to the CPU sockets, and how GPUs are connected to each other. These, along with other hardware and software configurations, enabled our system to achieve close to bare metal performance.

([url]https://i.imgur.com/xNylmFd.jpg[/url])
A comparison of the HPC AI system stack and Cloud-native AI system stack.

A second important choice was on the design of the AI node. Given the desire to use Vela to train large models, we opted for large GPU memory (80 GB), and a significant amount of memory and local storage on the node (1.5TB of DRAM, and four 3.2TB NVMe drives). We anticipated that large memory and storage configurations would be important for caching AI training data, models, other related artifacts, and feeding the GPUs with data to keep them busy.

A third important dimension affecting the system’s performance is its network design. Given our desire to operate Vela as part of a cloud, building a separate Infiniband-like network — just for this system — would defeat the purpose of the exercise. We needed to stick to standard ethernet-based networking that typically gets deployed in a cloud. But traditional supercomputing wisdom states that you need a highly specialized network. The question therefore became: what do we need to do to prevent our standard, ethernet-based network from becoming a significant bottleneck?

We got started by simply enabling SR-IOV for our network interface cards on each node, thereby exposing each 100G link directly into the VMs via virtual functions. In doing so, we also were able to use all of IBM Cloud’s VPC network capabilities such as security groups, network access control lists, custom routes, private access to PaaS services of IBM Cloud, access to Direct Link and Transit Gateway services.

The results we recently published ([url]https://research.ibm.com/blog/ibm-pytorch-cloud-ai-ethernet[/url]) with PyTorch showed that by optimizing the workload communication patterns, controllable at the PyTorch level, we can hide the communication time over the network behind compute time occurring on the GPUs. This approach is aided by our choice of GPUs with 80GB of memory (discussed above), which allows us to use bigger batch sizes (compared to the 40 GB model), and leverage the Fully Shared Data Parallel (FSDP) training strategy more efficiently. In this way, we can efficiently use our GPUs in distributed training runs with efficiencies of up to 90% and beyond for models with 10+ billion parameters. Next we’ll be rolling out an implementation of remote direct memory access (RDMA) over converged ethernet (RoCE) at scale and GPU Direct RDMA (GDR), to deliver the performance benefits of RDMA and GDR while minimizing adverse impact to other traffic. Our lab measurements indicate that this will cut latency in half.

Vela’s architecture details

([url]https://i.imgur.com/Mc1OdDc.jpg[/url])

Each of Vela’s nodes has eight 80GB A100 GPUs, which are connected to each other by NVLink and NVSwitch. In addition, each node has two 2nd Generation Intel Xeon Scalable processors (Cascade Lake), 1.5TB of DRAM, and four 3.2TB NVMe drives. To support distributed training, the compute nodes are connected via multiple 100G network interfaces that are connected in a two-level Clos structure with no oversubscription. To support high availability, we built redundancy into the system: Each port of the network interface card (NIC) is connected to a different top-of-rack (TOR) switch, and each TOR switch is connected via two 100G links to four spine switches providing 1.6TB cross rack bandwidth and ensures that the system can continue to operate despite failures of any given NIC, TOR, or spine switch. Multiple microbenchmarks including iperf and NVIDIA Collective Communication Library (NCCL), show that the applications can drive close to the line rate for node-to-node TCP communication.

([url]https://i.imgur.com/jlUYI4g.jpg[/url])

While this work was done with an eye towards delivering performance and flexibility for large-scale AI workloads, the infrastructure was designed to be deployable in any of our worldwide data centers at any scale. It is also natively integrated into IBM Cloud’s VPC environment, meaning that the AI workloads can use any of the more than 200 IBM Cloud services currently available. While the work was done in the context of a public cloud, the architecture could also be adopted for on-premises AI system design.

Why Vela matters and what’s next

Having the right tools and infrastructure is a critical ingredient for R&D productivity. Many teams choose to follow the “tried and true” path of building traditional supercomputers for AI. While there is clearly nothing wrong with this approach, we’ve been working on a better solution that provides the dual benefits of high-performance computing and high end-user productivity, enabled by a hybrid cloud development experience. 2 ([url]https://research.ibm.com/blog/AI-supercomputer-Vela-GPU-cluster#fn-2[/url]) Vela has been online since May 2022 and is in productive use by dozens of AI researchers at IBM Research, who are training models with tens of billions of parameters. We’re looking forward to sharing more about upcoming improvements to both end-user productivity and performance, enabled by emerging systems and software innovations.2 ([url]https://research.ibm.com/blog/AI-supercomputer-Vela-GPU-cluster#fn-2[/url]) We are also excited about the opportunities that will be enabled by our AI-optimized processor, the IBM AIU ([url]https://research.ibm.com/blog/ibm-artificial-intelligence-unit-aiu[/url]), and will be sharing more about this in future communications. The era of cloud-native AI supercomputing has only just begun. If you are considering building an AI system or want to know more, please contact us ([url]http://dklyash@ibm.com[/url]).
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 23, 2023, 06:32:08 am
Citar
Google Claims Breakthrough in Quantum Computer Error Correction (https://tech.slashdot.org/story/23/02/22/1656219/google-claims-breakthrough-in-quantum-computer-error-correction)
Posted by msmash on Wednesday February 22, 2023 @12:20PM from the moving-forward dept.

Google has claimed a breakthrough in correcting for the errors (https://www.ft.com/content/9e04ff7d-f56a-4d5f-a4fa-849336abf659) that are inherent in today's quantum computers, marking an early but potentially significant step in overcoming the biggest technical barrier to a revolutionary new form of computing. From a report:
Citar
The internet company's findings, which have been published in the journal Nature (https://www.nature.com/articles/s41586-022-05434-1), mark a "milestone on our journey to build a useful quantum computer," said Hartmut Neven, head of Google's quantum efforts. He called error correction "a necessary rite of passage that any quantum computing technology has to go through."

Quantum computers struggle to produce useful results because the quantum bits, or qubits, they are based on only hold their quantum states for a tiny fraction of a second. That means information encoded in a quantum system is lost before the machine can complete its calculations. Finding a way to correct for the errors this causes is the hardest technical challenge the industry faces. [...] Google's researchers said they had found a way to spread the information being processed in a quantum computer across a number of qubits in a way that meant the system as a whole could retain enough to complete a calculation, even as individual qubits fell out of their quantum states. The research published in Nature pointed to a reduction of only 4 per cent in the error rate as Google scaled up its technique to run on a larger quantum system. However, the researchers said this was the first time that increasing the size of the computer had not also led to a rise in the error rate.
Saludos.
Título: Re:STEM
Publicado por: pollo en Febrero 23, 2023, 08:58:16 am
ChatGPT, pá las Fields Medals:

Citar
¿Podría una inteligencia artificial ganar la medalla Fields de matemáticas?
«Debemos ser críticos con los resultados que los motores nos devuelven: no son ciertos por muy bien explicados que estén»

https://theobjective.com/tecnologia/2023-02-17/inteligencia-artificial-medalla-fields-matematicas/ (https://theobjective.com/tecnologia/2023-02-17/inteligencia-artificial-medalla-fields-matematicas/)

En fin, ni el más arrastrado de mis alumnos en las terribles sesiones de reclamaciones de un examen de matemáticas en la Universidad tendría la desvergüenza de las respuestas que da éste programa.  :facepalm:
Si acaso, la IA para lo que está sirviendo es para destacar lo fácil que es engañar a la inmensa mayoría de la gente sólo con las puras apariencias. El contenido es lo de menos, lo que importa es que esté bien presentado y bien contado.

Y así nos va en general.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 08, 2023, 07:00:55 am
Citar
Google Researchers Unveil ChatGPT-Style AI Model To Guide a Robot Without Special Training (https://hardware.slashdot.org/story/23/03/08/0144230/google-researchers-unveil-chatgpt-style-ai-model-to-guide-a-robot-without-special-training)
Posted by BeauHD on Tuesday March 07, 2023 @10:30PM from the largest-visual-language-model-ever dept.

An anonymous reader quotes a report from Ars Technica:
Citar
On Monday, a group of AI researchers from Google and the Technical University of Berlin unveiled PaLM-E (https://palm-e.github.io/), a multimodal embodied visual-language model (VLM) with 562 billion parameters (https://ourworldindata.org/grapher/artificial-intelligence-parameter-count) that integrates vision and language for robotic control. They claim it is the largest VLM ever developed and that it can perform a variety of tasks without the need for retraining (https://arstechnica.com/information-technology/2023/03/embodied-ai-googles-palm-e-allows-robot-control-with-natural-commands/). According to Google, when given a high-level command, such as "bring me the rice chips from the drawer," PaLM-E can generate a plan of action for a mobile robot platform with an arm (developed by Google Robotics) and execute the actions by itself.

PaLM-E does this by analyzing data from the robot's camera without needing a pre-processed scene representation. This eliminates the need for a human to pre-process or annotate the data and allows for more autonomous robotic control. It's also resilient and can react to its environment. For example, the PaLM-E model can guide a robot (https://palm-e.github.io/#demo) to get a chip bag from a kitchen -- and with PaLM-E integrated into the control loop, it becomes resistant to interruptions that might occur during the task. In a video example, a researcher grabs the chips from the robot and moves them, but the robot locates the chips and grabs them again. In another example (https://twitter.com/DannyDriess/status/1632904683395194884?s=20), the same PaLM-E model autonomously controls a robot through tasks with complex sequences that previously required human guidance. Google's research paper explains (https://palm-e.github.io/assets/palm-e.pdf) (PDF) how PaLM-E turns instructions into actions.

PaLM-E is a next-token predictor, and it's called "PaLM-E (https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html)" because it's based on Google's existing large language model (LLM) called "PaLM" (which is similar to the technology behind ChatGPT). Google has made PaLM "embodied" by adding sensory information and robotic control. Since it's based on a language model, PaLM-E takes continuous observations, like images or sensor data, and encodes them into a sequence of vectors that are the same size as language tokens. This allows the model to "understand" the sensory information in the same way it processes language. In addition to the RT-1 robotics transformer (https://ai.googleblog.com/2022/12/rt-1-robotics-transformer-for-real.html?m=1), PaLM-E draws from Google's previous work on ViT-22B, a vision transformer model revealed in February. ViT-22B has been trained on various visual tasks, such as image classification, object detection, semantic segmentation, and image captioning.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 11, 2023, 22:44:48 pm
Citar
Scientists Managed To Completely Map a Baby Fruit Fly's Brain (https://science.slashdot.org/story/23/03/10/219215/scientists-managed-to-completely-map-a-baby-fruit-flys-brain)
Posted by BeauHD on Friday March 10, 2023 @10:30PM from the best-to-start-small dept.

An anonymous reader quotes a report from Popular Mechanics:
Citar
Scientists from the University of Cambridge and Johns Hopkins University announced that they'd finally mapped every single neuron and all the connections between them (https://www.popularmechanics.com/science/animals/a43266443/fruit-fly-brain/) housed inside the brain of a fruit fly larva. The team's research was published this week in the journal Science (https://www.science.org/doi/10.1126/science.add9330). "If we want to understand who we are and how we think, part of that is understanding the mechanism of thought," says Johns Hopkins biomedical engineer Joshua T. Vogelstein in a press release (https://hub.jhu.edu/2023/03/09/scientists-complete-first-map-of-an-insect-brain/). "And the key to that is knowing how neurons connect with each other."

And there are a lot of neurons and connections to sort through. To complete this neurological map, scientists had to identify 3,016 neurons. But that pales in comparison to the number of connections between these neurons, which comes to a grand total of 548,000. They also identified 93 distinct neurons that differed in shape, function, and neurological connection. If this all sounds difficult, that's because it is. For 12 years, scientists had to painstakingly slice a brain into thousands of tissue samples, image them with an high-resolution electron microscope, and then piece them back together -- neuron by neuron.

Understanding the inner workings of a fruit fly's brain may seem unrelated to the human mind, but scientists didn't choose this particular species based on its size or perceived simplicity -- rather, fruit flies actually share fundamental biology and a comparable genetic foundation with humans. This makes the map a perfect cornerstone upon which to explore some of the many mysteries of the human mind. "All brains are similar -- they are all networks of interconnected neurons," Marta Zaltic, a co-author on the study, told the BBC. "All brains of all species have to perform many complex behaviors: they all need to process sensory information, learn, select actions, navigate their environments, choose food, etc."
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 12, 2023, 09:23:35 am
Citar
El primer mapa de un cerebro, de una larva de mosca, acerca el sueño de entender la mente humana ([url]https://elpais.com/ciencia/2023-03-09/el-primer-mapa-de-un-cerebro-de-una-larva-de-mosca-acerca-el-sueno-de-entender-la-mente-humana.html[/url])
Un equipo liderado por el español Albert Cardona logra la hazaña científica de completar la arquitectura cerebral de un animal, neurona a neurona

MANUEL ANSEDE | 09 MAR 2023

([url]https://i.imgur.com/SzoKCsv.jpg[/url])
Mapa del cerebro de la larva de la mosca de la fruta, con 3.016 neuronas y más de medio millón de conexiones.
UNIVERSIDADES DE CAMBRIDGE Y JOHNS HOPKINS

La humanidad solo había sido capaz de mapear célula a célula tres minúsculos sistemas nerviosos con unos pocos cientos de neuronas: el del gusano de laboratorio Caenorhabditis elegans, el de la larva del invertebrado marino Platynereis dumerilii y el de un diminuto animal que vive pegado a las rocas oceánicas, Ciona intestinalis. Un equipo encabezado por el biólogo español Albert Cardona ([url]https://www2.mrc-lmb.cam.ac.uk/group-leaders/a-to-g/albert-cardona/[/url]) y su colega croata Marta Zlatic ([url]https://www2.mrc-lmb.cam.ac.uk/group-leaders/t-to-z/marta-zlatic/[/url]) han firmado ahora una hazaña científica: el mapa del cerebro completo de la larva de la mosca de la fruta, una estructura con 3.016 neuronas y 548.000 conexiones entre ellas. “Hemos multiplicado por 10 lo que se había conseguido hasta ahora”, celebra Cardona, del legendario Laboratorio de Biología Molecular de Cambridge (Reino Unido), cuyos científicos han ganado una docena de premios Nobel ([url]https://www2.mrc-lmb.cam.ac.uk/about-lmb/[/url]).

El biólogo, nacido en Tarragona hace 44 años, explica la magnitud del avance. “Imaginemos que el metro de una ciudad tuviera 3.000 estaciones y cada una de ellas estuviera comunicada con otras 200″, ilustra. La complejidad del cerebro de la larva de la mosca de la fruta, sin embargo, palidece ante la estructura más sofisticada sobre la faz de la Tierra: el cerebro humano, un órgano de kilo y medio con 86.000 millones de neuronas ([url]https://onlinelibrary.wiley.com/doi/10.1002/cne.21974[/url]). “Tres millares de neuronas parecen muy pocas, pero esta larva es capaz de navegar por gradientes de luz o de olores, puede encontrar comida por sí misma, tiene memoria a corto y a largo plazo. Es un animal muy autosuficiente”, apunta Cardona. Su proeza se publica este jueves en la revista Science ([url]http://www.science.org/doi/10.1126/science.add9330[/url]), escaparate de la mejor ciencia mundial.

La persona que empezó a hacer un mapa del cerebro humano fue el español Santiago Ramón y Cajal ([url]https://elpais.com/elpais/2018/12/07/ciencia/1544203336_618933.html[/url]), en 1888. Con un rudimentario microscopio en su laboratorio de Barcelona, el investigador demostró que el órgano de la mente no era una masa difusa, como se pensaba hasta entonces, sino que estaba organizado en células individuales: las neuronas. Cajal comenzó entonces una tarea titánica, dibujando a mano con maestría cada estructura cerebral, célula a célula, con sus conexiones, a las que él llamaba poéticamente “besos”.

([url]https://i.imgur.com/najCUu5.jpg[/url])
El biólogo español Albert Cardona, en su despacho del Laboratorio de Biología Molecular de Cambridge.

El equipo de Albert Cardona ha empleado métodos más sofisticados. Hace una docena de años, los científicos extrajeron con unas pinzas el sistema nervioso de una larva de mosca de la fruta. Lo cortaron en unas 5.000 lonchas ultrafinas y las observaron con un microscopio electrónico. El biólogo ideó un software que permite unir con precisión esas imágenes —igual que un teléfono móvil junta varias fotos en una única panorámica— y navegar por ese volumen tridimensional, como si fuera Google Maps.

Las aplicaciones de un mapa cerebral son inimaginables. Cardona cita el trabajo de un compañero de su laboratorio, el neurobiólogo Pedro Gómez Gálvez ([url]https://twitter.com/pgomgal?lang=es[/url]), uno de los científicos españoles que en 2018 ([url]https://www.nature.com/articles/s41467-018-05376-1[/url]) anunciaron el descubrimiento de unas nuevas formas geométricas: los escutoides ([url]https://elpais.com/ciencia/2022-07-13/descubierto-el-principio-matematico-detras-de-los-escutoides-las-formas-geometricas-de-moda.html[/url]), una especie de prismas retorcidos observados por primera vez en las glándulas salivales de las moscas de la fruta. Gómez Gálvez está comparando cerebros completos de larvas normales con los de otras larvas modificadas genéticamente para imitar los síntomas del párkinson. Otros trastornos poco comprendidos —como el autismo, la esquizofrenia y la epilepsia— surgen por una desviación ([url]https://elpais.com/ciencia/2022-07-12/oscar-marin-neurocientifico-variando-pequenas-piezas-de-la-corteza-cerebral-se-generan-capacidades-de-superheroe.html[/url]) del desarrollo cerebral típico.

El físico estadounidense Emerson Pugh dejó una frase ([url]https://books.google.es/books?redir_esc=y&hl=es&id=0ut-AAAAMAAJ&dq=The+Biological+Origin+of+Human+Values+George+Pugh&focus=searchwithinvolume&q=emerson[/url]) para la historia antes de morir en 1981: “Si el cerebro humano fuera tan simple que pudiéramos entenderlo, nosotros seríamos tan simples que no lo entenderíamos”. Es la paradoja del cerebro, una estructura tan sofisticada que es incapaz de imaginarse a sí misma. Cardona, sin embargo, es optimista. Cree que obtener un mapa del cerebro humano con sus conexiones neurona a neurona —el llamado conectoma— es solo cuestión de tiempo. “El cerebro del ratón se va a hacer en los próximos 10 o 15 años. La pregunta es cuánto va a costar. Hay varios proyectos proponiéndolo, pero estamos hablando de entre 500 y 1.000 millones de dólares solo para hacer el trabajo preliminar”, calcula el biólogo. “Y el cerebro humano requerirá una cantidad absurda de recursos”, vaticina.

([url]https://i.imgur.com/w7naPCG.jpg[/url])
Un adulto de mosca de la fruta, una pupa y una larva del mismo insecto.
WEIGMANN ET AL.

Cardona explica que su colega Gregory Jefferis ([url]https://www2.mrc-lmb.cam.ac.uk/group-leaders/h-to-m/gregory-jefferis/[/url]) ya está mapeando en Cambridge el cerebro de la mosca adulta. Los resultados se esperan a partir del año que viene. Otro objetivo obvio sería la abeja de la miel, con un millón de neuronas. “Tenemos que entrar en el cerebro de la abeja, porque posee la capacidad del lenguaje y la de recordar sitios concretos a lo largo de kilómetros de paisajes. ¿Cómo lo hace? ¿Cómo explica a otra abeja cómo ir a un lugar? Todo eso se puede estudiar si se conoce su cableado neuronal”, afirma Cardona.

El neurocientífico Rafael Yuste ([url]https://elpais.com/ciencia/2022-01-05/tener-un-sensor-en-la-cabeza-sera-de-rigor-en-10-anos-igual-que-ahora-todo-el-mundo-tiene-un-telefono-inteligente.html[/url]), catedrático de la Universidad de Columbia (EE UU), considera “espectacular” el mapa del cerebro de la larva. Este investigador estaba en 1985 en el laboratorio del biólogo sudafricano Sydney Brenner, también en Cambridge, cuando este equipo hizo un primer intento de mapear las 302 neuronas del Caenorhabditis elegans. Aquel estudio llevaba un título provocador: La mente del gusano ([url]https://www.wormatlas.org/MoW_built0.92/MoW.html[/url]). Yuste recuerda que aquel trabajo pionero fue muy artesanal, “casi heroico”, mientras que ahora es un proceso prácticamente industrial. A su juicio, el progreso hacia cerebros más complejos es “inexorable”.

Yuste es uno de los impulsores del futuro Centro Nacional de Neurotecnología Spain Neurotech ([url]https://www.lamoncloa.gob.es/serviciosdeprensa/notasprensa/asuntos-economicos/Paginas/2022/221222-centro-nacional-neurotecnologia.aspx[/url]), en Madrid. “Es muy difícil realizar estos estudios, se necesitan equipos enormes, con mucha inversión de tiempo y trabajo. Por eso es importante coordinar la financiación y los esfuerzos a nivel nacional e internacional en neurotecnología. Se está estudiando el mapear el conectoma del ratón en una colaboración a nivel mundial”, argumenta el catedrático. El cerebro de un ratón es un millón de veces más grande que el de la larva de una mosca.

Albert Cardona cuenta que se han encontrado con una “sorpresa” en el cerebro de la larva. Su arquitectura se parece mucho a las de las modernas redes neuronales artificiales, como ResNet, DenseNet y U-Net, empleadas en sofisticados programas informáticos de aprendizaje automático. “En las redes neuronales tradicionales, cada capa de neuronas solamente se conecta con la siguiente. El quid de la cuestión son las conexiones que se saltan capas. Ahí está la raíz de sus capacidades excepcionales”, explica Cardona.

El biólogo español considera “alucinante” lo que son capaces de hacer estos seres con solo 3.000 neuronas. Cardona destaca que las larvas de la mosca de la fruta, como otros muchos insectos, suelen tener en su interior una avispa parásita, como el monstruo de la película Alien. “La larva de la mosca lo detecta y va a comer alimento enriquecido en alcohol, fruta fermentada, para medicarse, porque ese alcohol mata el parásito que tiene dentro”, relata el investigador.

Cardona subraya la complejidad organizativa de esas 3.000 neuronas. Además del salto de capas, hay conexiones en bucle, de manera similar a las redes neuronales artificiales LSTM, que se utilizan en miles de millones de computadoras a diario. El biólogo confía en que el cerebro de la larva de la mosca dará lugar a nuevos sistemas de inteligencia artificial, con un aprendizaje automático más poderoso que los actuales. “Ya hay informáticos inspirándose en los circuitos cerebrales de nuestra larva”, aplaude. A largo plazo, el objetivo es mucho más ambicioso, según ha proclamado otro de los coautores del mapa, el ingeniero biomédico Joshua Vogelstein ([url]https://www.bme.jhu.edu/people/faculty/joshua-t-vogelstein/[/url]), de la Universidad Johns Hopkins (EE UU): “Entender quiénes somos y cómo pensamos”.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 12, 2023, 20:50:29 pm
Citar
Aprobado el estatuto de la Agencia Espacial Española, lo que le pone fecha de entrada en funcionamiento (https://www.microsiervos.com/archivo/espacio/aprobado-estatuto-agencia-espacial-espanola.html)
POR @WICHO (https://twitter.com/wicho/) — 9 DE MARZO DE 2023

(https://i.imgur.com/M4xgOf4.jpg)
Intasat, el primer satélite artificial español, lanzado en noviembre de 1974

El Consejo de Ministros del pasado día 7 aprobó el Estatuto de la Agencia Espacial Española (https://www.boe.es/diario_boe/txt.php?id=BOE-A-2023-6082). Publicado en el BOE del 8 de marzo, entraba en vigor el día 9 de ese mismo mes. Según la referencia del Consejo de Ministros del día «Este organismo público, adscrito al Ministerio de Ciencia e Innovación y el Ministerio de Defensa, servirá para coordinar las actividades en torno al ámbito espacial, tanto desde el punto de vista de su desarrollo tecnológico como del uso del espacio en ámbitos como la seguridad, la observación de la tierra, la geolocalización o las comunicaciones.»

Sus 43 artículos –lástima que no hayan sido 42– establecen sus objetivos y fines, competencias, estructura, forma de funcionamiento, el régimen del personal, su financiación, rendimiento de cuentas, etc.

Pero sobre todo el Real Decreto en el que se publica el estatuto establece que a entrada en funcionamiento de la Agencia Espacial Española se producirá con la celebración de la sesión constitutiva de su Consejo Rector, que tendrá lugar en el plazo máximo de tres meses desde la entrada en vigor de este real decreto.

Así que si se cumplen los plazos como muy tarde a principios de junio la AEE tiene que estar en funcionamiento. Y estaría feo empezar no cumpliendo los plazos. Aunque es cierto que la Ley 17/2022, de 5 de septiembre, que daba habilitación legal para la creación de la Agencia, emplazaba al Gobierno a aprobar su estatuto antes del 7 de septiembre de 2023. Así que por ahora vamos bien. Claro que ya nos la habían prometido en 2015 (https://www.microsiervos.com/archivo/tecnologia/espana-tendra-su-propia-agencia-espacial.html).

En su primer año de funcionamiento la AEE contará con un presupuesto de 700 millones de euros y contratará a 75 personas. Su sede estará en Sevilla.
Saludos
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 12, 2023, 20:51:52 pm
(https://i.imgur.com/U9DdT4K.png)
https://twitter.com/NataliaVartan/status/1634478275815780352 (https://twitter.com/NataliaVartan/status/1634478275815780352)

(https://i.imgur.com/Qrglde7.jpg) (https://www.youtube.com/watch?v=1ibkspcsQPY)
Control de Misión | Miura-1 de PLD-Space: TODO lo que tienes que saber (https://www.youtube.com/watch?v=1ibkspcsQPY)

https://elpais.com/ciencia/2023-03-11/el-miura-1-el-primer-cohete-europeo-reutilizable-ultima-su-salto-al-espacio-en-un-mes.html (https://elpais.com/ciencia/2023-03-11/el-miura-1-el-primer-cohete-europeo-reutilizable-ultima-su-salto-al-espacio-en-un-mes.html)

(https://i.imgur.com/E2nKO9o.jpg)

(https://i.imgur.com/CPMDBPU.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 12, 2023, 22:06:50 pm
(https://i.imgur.com/gvC1uQ0.jpg)

https://www.diariovasco.com/economia/donostia-acogera-super-ordenador-cuantico-ibm-referencia-20230311193405-nt.html (https://www.diariovasco.com/economia/donostia-acogera-super-ordenador-cuantico-ibm-referencia-20230311193405-nt.html)

(https://i.imgur.com/gzcwjXp.jpg)

(https://i.imgur.com/e18gLak.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 14, 2023, 22:12:32 pm
Citar
You Can Now Run a GPT-3 Level AI Model On Your Laptop, Phone, and Raspberry Pi (https://slashdot.org/story/23/03/14/050225/you-can-now-run-a-gpt-3-level-ai-model-on-your-laptop-phone-and-raspberry-pi)
Posted by BeauHD on Tuesday March 14, 2023 @09:00AM from the what-will-they-think-of-next dept.

An anonymous reader quotes a report from Ars Technica:
Citar
On Friday, a software developer named Georgi Gerganov created a tool called "llama.cpp (https://github.com/ggerganov/llama.cpp)" that can run Meta's new GPT-3-class AI large language model, LLaMA, locally on a Mac laptop. Soon thereafter, people worked out how to run LLaMA on Windows (https://github.com/ggerganov/llama.cpp/issues/22) as well. Then someone showed it running on a Pixel 6 phone (https://twitter.com/thiteanish/status/1635188333705043969), and next came a Raspberry Pi (https://twitter.com/miolini/status/1634982361757790209) (albeit running very slowly). If this keeps up, we may be looking at a pocket-sized ChatGPT competitor before we know it. [...]

Typically, running GPT-3 requires several datacenter-class A100 GPUs (also, the weights for GPT-3 are not public), but LLaMA made waves because it could run on a single beefy consumer GPU. And now, with optimizations that reduce the model size using a technique called quantization, LLaMA can run on an M1 Mac or a lesser Nvidia consumer GPU. After obtaining the LLaMA weights ourselves, we followed [independent AI researcher Simon Willison's] instructions and got the 7B parameter version running on an M1 Macbook Air (https://arstechnica.com/information-technology/2023/03/you-can-now-run-a-gpt-3-level-ai-model-on-your-laptop-phone-and-raspberry-pi/), and it runs at a reasonable rate of speed. You call it as a script on the command line with a prompt, and LLaMA does its best to complete it in a reasonable way.

There's still the question of how much the quantization affects the quality of the output. In our tests, LLaMA 7B trimmed down to 4-bit quantization was very impressive for running on a MacBook Air -- but still not on par with what you might expect from ChatGPT. It's entirely possible that better prompting techniques might generate better results. Also, optimizations and fine-tunings come quickly when everyone has their hands on the code and the weights -- even though LLaMA is still saddled with some fairly restrictive (https://docs.google.com/forms/d/e/1FAIpQLSfqNECQnMkycAp2jP4Z9TFX0cGR4uf7b_fBxjY_OjhJILlKGA/viewform) terms of use. The release of Alpaca (https://crfm.stanford.edu/2023/03/13/alpaca.html) today by Stanford proves that fine tuning (additional training with a specific goal in mind) can improve performance, and it's still early days after LLaMA's release.
A step-by-step instruction guide for running LLaMA on a Mac can be found here (https://simonwillison.net/2023/Mar/11/llama/) (Warning: it's fairly technical).
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 17, 2023, 06:26:32 am
Citar
Meta AI Unlocks Hundreds of Millions of Proteins To Aid Drug Discovery (https://tech.slashdot.org/story/23/03/16/1919206/meta-ai-unlocks-hundreds-of-millions-of-proteins-to-aid-drug-discovery)
Posted by msmash on Thursday March 16, 2023 @05:25PM from the moving-forward dept.

Facebook parent company Meta Platforms has created a tool to predict the structure of hundreds of millions of proteins (https://www.wsj.com/articles/meta-ai-unlocks-hundreds-of-millions-of-proteins-to-aid-drug-discovery-d0ef32fa) using artificial intelligence. Researchers say it promises to deepen scientists' understanding of biology, and perhaps speed the discovery of new drugs. From a report:
Citar
Meta's research arm, Meta AI, used the new AI-based computer program known as ESMFold to create a public database of 617 million predicted proteins. Proteins are the building blocks of life and of many medicines, required for the function of tissues, organs and cells. Drugs based on proteins are used to treat heart disease, certain cancers and HIV, among other illnesses, and many pharmaceutical companies have begun to pursue new drugs with artificial intelligence. Using AI to predict protein structures is expected to not only boost the effectiveness of existing drugs and drug candidates but also help discover molecules that could treat diseases whose cures have remained elusive.

With ESMFold, Meta is squaring off against another protein-prediction computer model known as AlphaFold from DeepMind Technologies, a subsidiary of Google parent Alphabet. AlphaFold said last year that its database has 214 million predicted proteins that could help accelerate drug discovery. Meta says ESMFold is 60 times faster than AlphaFold, but less accurate. The ESMFold database is larger because it made predictions from genetic sequences that hadn't been studied previously. Predicting a protein's structure can help scientists understand its biological function, according to Alexander Rives, co-author of a study published Thursday (https://www.science.org/doi/10.1126/science.ade2574) in the journal Science and a research scientist at Meta AI. Meta had previously released the paper describing ESMFold in November 2022 on a preprint server.
Further reading: What metaverse? Meta says its single largest investment is now in 'advancing AI.' (https://edition.cnn.com/2023/03/15/tech/meta-ai-investment-priority/index.html)
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 19, 2023, 23:35:59 pm
Citar
A Trillionth-of-a-Second Shutter Speed Camera Catches Chaos in Action (https://science.slashdot.org/story/23/03/18/2255216/a-trillionth-of-a-second-shutter-speed-camera-catches-chaos-in-action)
Posted by EditorDavid on Sunday March 19, 2023 @01:34PM from the speedy-shutter dept.

Long-time Slashdot reader turp182 (https://slashdot.org/~turp182) shares two stories about the new state-of-the-art in very-high-speed imaging. "The techniques don't image captured photons, but instead 'touch' the target to perform imaging/read structures using either lasers or neutrons."

First, Science Daily reports that physicists from the University of Gothenburg (with colleagues from the U.S. and Germany) have developed an ultrafast laser camera that can create videos at 12.5 billion images per second (https://www.sciencedaily.com/releases/2023/02/230224135049.htm), "which is at least a thousand times faster than today's best laser equipment."
Citar
[R]esearchers use a laser camera that photographs the material in [an ultrathin, one-atom-thick] two-dimensional layer.... By observing the sample from the side, it is possible to see what reactions and emissions occur over time and space. Researchers have used single-shot laser sheet compressed ultrafast photography to study the combustion of various hydrocarbons.... This has enabled researchers to illustrate combustion with a time resolution that has never been achieved before. "The more pictures taken, the more precisely we can follow the course of events...." says Yogeshwar Nath Mishra, who was one of the researchers at the University of Gothenburg and who is now presenting the results in a scientific article in the journal Light: Science & Applications.... The new laser camera takes a unique picture with a single laser pulse.
Meanwhile, ScienceAlert reports on a camera with a trillionth-of-a-second shutter speed (https://www.sciencealert.com/trillionth-of-a-second-shutter-speed-camera-catches-chaos-in-action) — that is, 250 million times faster than digital cameras — that's actually able to photograph atomic activity, including "dynamic disorder."
Citar
Simply put, dynamic disorder is when clusters of atoms move and dance around in a material in specific ways over a certain period — triggered by a vibration or a temperature change, for example. It's not a phenomenon that we fully understand yet, but it's crucial to the properties and reactions of materials. The new super-speedy shutter speed system gives us much more insight into what's happening....

The researchers are referring to their invention as variable shutter atomic pair distribution function (https://www.nature.com/articles/s41563-023-01483-7), or vsPDF for short.... To achieve its astonishingly quick snap, vsPDF uses neutrons to measure the position of atoms, rather than conventional photography techniques. The way that neutrons hit and pass through a material can be tracked to measure the surrounding atoms, with changes in energy levels the equivalent of shutter speed adjustments.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 27, 2023, 22:05:15 pm
Citar
Apple Acquires Startup That Uses AI To Compress Videos (https://apple.slashdot.org/story/23/03/27/169214/apple-acquires-startup-that-uses-ai-to-compress-videos)
Posted by msmash on Monday March 27, 2023 @12:40PM from the how-about-that dept.

Apple has quietly acquired a Mountain View-based startup, WaveOne, that was developing AI algorithms for compressing video (https://techcrunch.com/2023/03/27/apple-acquired-a-startup-using-ai-to-compress-videos/). From a report:
Citar
Apple wouldn't confirm the sale when asked for comment. But WaveOne's website was shut down around January, and several former employees, including one of WaveOne's co-founders, now work within Apple's various machine learning groups. In a LinkedIn post published a month ago, WaveOne's former head of sales and business development, Bob Stankosh, announced the sale. "After almost two years at WaveOne, last week we finalized the sale of the company to Apple," Stankosh wrote. "We started our journey at WaveOne, realizing that machine learning and deep learning video technology could potentially change the world. Apple saw this potential and took the opportunity to add it to their technology portfolio." WaveOne was founded in 2016 by Lubomir Bourdev and Oren Rippel, who set out to take the decades-old paradigm of video codecs and make them AI-powered. Prior to joining the venture, Bourdev was a founding member of Meta's AI research division, and both he and Rippel worked on Meta's computer vision team responsible for content moderation, visual search and feed ranking on Facebook.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 28, 2023, 07:45:50 am
(https://i.imgur.com/nhWcLph.png)
https://twitter.com/emulenews/status/1639932080153927682

Citar
Ayuno (https://culturacientifica.com/2023/03/19/ayuno/)
Juan Ignacio Pérez Iglesias | 19 de marzo, 2023

(https://i.imgur.com/HfPElu5.jpg)
Kurt Gödel ayunó hasta morir de inanición.

Lo primero que ocurre cuando una persona ayuna es que su metabolismo cae. Quienes ayunan reducen su actividad o, incluso, dejan de realizar cualquier actividad que no sea imprescindible. Pero la bajada del metabolismo no solo obedece al descenso de actividad; la tasa metabólica en condiciones de reposo también cae. La frecuencia de latido cardiaco se reduce. La temperatura corporal baja de 37 C a 35,5 C. Los músculos pierden masa; también el cardiaco. El hígado y los riñones también adelgazan. Solo el encéfalo mantiene su volumen. Esto implica que ciertos procesos que, en principio, son necesarios o muy convenientes para el organismo, dejan de ejecutarse o cursan con menor intensidad. La caída de la actividad metabólica es, además, mayor que la que correspondería a la pérdida de masa corporal que, necesariamente, ha de producirse en ayunas. De esta forma se ahorran reservas de energía que pueden resultar esenciales más adelante.

El metabolismo se ralentiza debido, principalmente, a una reducción en la secreción de la hormona tiroidea, especialmente la forma activa llamada T3 o triyodotironina. Es muy probable que este descenso se deba, a su vez, a una menor secreción de leptina por los adipocitos. La leptina es una adipocina, una proteína que informa acerca de la situación de las células que la producen. Los adipocitos son las células que almacenan grasa en el organismo y son, además, los principales productores de leptina. Cuando están cargados de lípidos, la liberan a la sangre, llega al hipotálamo –en el encéfalo– e induce una disminución del apetito. Además, también promueve la liberación, por la glándula hipófisis –vecina y socia del hipotálamo–, de la hormona que estimula la glándula tiroides. Como consecuencia, aumenta la liberación de la T3, por lo que sube el metabolismo y, por ende, la producción de calor. Si bajan los niveles de lípidos en esos mismos adipocitos, estos liberan menos leptina, de manera que el apetito aumenta y el metabolismo disminuye. Quienes ayunan tienen frío.

El glucógeno, que es la reserva de carbohidratos de los animales, se agota en 24 horas en el hígado, que es quien surte al encéfalo de glucosa, y seguramente en una semana en el músculo. Junto con la reducción del metabolismo global, también se ahorran proteínas porque, en proporción a carbohidratos y grasas, se catabolizan menos. Como consecuencia, los depósitos de grasa pasan a ser el principal –casi el único–suministro de energía. De hecho, la supervivencia de las personas que ayunan depende de la magnitud de esos depósitos. Cuando se terminan los lípidos, ya solo quedan proteínas para poder obtener energía, por lo que se produce un rápido uso de estas; y como muchas cumplen funciones esenciales para la supervivencia, la muerte sobreviene rápidamente.

No es fácil prever cuánto tiempo puede permanecer con vida una persona en ayunas, porque hay muchos factores que influyen, especialmente su estado de salud antes del ayuno y el volumen de sus reservas lipídicas. Suponiendo que una persona de 70 Kg y unas reservas de grasa de 18 Kg (el 25% de su peso) decide ayunar. Tendría, de partida, unas reservas de unos 700 megajulios (un megajulio es un millón de julios: MJ); por otro lado, al ayunar, el metabolismo bajaría del valor normal en reposo (10 MJ/día) a 7 MJ/día. Por tanto, las reservas podrían durar alrededor de 100 días. Bobby Sands, un militante encarcelado del IRA que, junto con otros compañeros, hizo una huelga de hambre en 1981, falleció tras 66 días ayunando. Lo más probable es que Sands empezase la huelga con menos grasa que esos 18 Kg considerados en el supuesto teórico.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 04, 2023, 06:32:47 am
Citar
Could a Photosynthesis 'Hack' Lead to New Ways of Generating Renewable Energy? (https://science.slashdot.org/story/23/04/02/205207/could-a-photosynthesis-hack-lead-to-new-ways-of-generating-renewable-energy)
Posted by EditorDavid on Sunday April 02, 2023 @04:09PM from the plant-based-fuels dept.

"Researchers have 'hacked' the earliest stages of photosynthesis," according to a new announcement from the University of Cambridge (https://www.cam.ac.uk/stories/hacking-photosynthesis).

CNET reports:
Citar
Scientists have studied photosynthesis in plants for centuries, but an international team believes they've unlocked new secrets in nature's great machine that could revolutionize sustainable fuels and fight climate change. The team says they've determined it's possible to extract an electrical charge at the best possible point in photosynthesis. This means harvesting the maximum amount of electrons from the process for potential use in power grids and some types of batteries. It could also improve the development of biofuels. While it's still early days, the findings, reported in the journal Nature (https://www.nature.com/articles/s41586-023-05763-9), could reduce greenhouse gasses in the atmosphere and provide insights to improve photovoltaic solar panels.

The key breakthrough came when researchers observed the process of photosynthesis at ultrafast timescales. "We can take photos at different times which allow us to watch changes in the sample really, really quickly — a million billion times faster than your iPhone," Dr. Tomi Baikie, from the University of Cambridge's Cavendish Laboratory, told CNET....

Previous demonstrations connected cyanobacteria, algae and other plants to electrodes to create so-called bio-photoelectrochemical cells (https://www.frontiersin.org/articles/10.3389/fpls.2022.955843/full) that tap into the photosynthetic process to generate electricity. Baikie said they were surprised to discover a previously unknown pathway of energy flow at the beginning of the process that could enable extracting the charge in a more efficient way.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 04, 2023, 06:34:57 am
Citar
Physicists Created 'Slits In Time' and Discovered 'Unexpected Physics' (https://science.slashdot.org/story/23/04/03/2142245/physicists-created-slits-in-time-and-discovered-unexpected-physics)
Posted by BeauHD on Monday April 03, 2023 @11:30PM from the temporal-analogue dept.

An anonymous reader quotes a report from Motherboard:
Citar
Scientists have discovered "unexpected physics" by opening up "slits" in time (https://www.vice.com/en/article/dy38xk/physicists-created-slits-in-time-and-discovered-unexpected-physics-in-experiment), a new study reports, achieving a longstanding dream that can help to probe the behavior of light and pioneer advanced optical technologies. The mind-boggling approach is a time-based variation on the famous double-slit experiment, first performed by Thomas Young in 1801, which opened a window into the weird probabilistic world of quantum mechanics by revealing the dual nature of light as both a particle and a wave. The new temporal version of this test offered a glimpse of the mysterious physics that occur at ultrafast timescales, which may inform the development of quantum computing systems, among other next-generation applications.

In the original version of the double-slit experiment, light passes through two slits that are spatially separated on an opaque screen. A detector on the other side of the screen records the pattern of the light waves that emerges from the slits. These experiments show that the light waves change direction and interfere with each other after going through the slits, demonstrating that light behaves as both a wave and particle. This insight is one of the most important milestones in our ongoing journey into the quantum world, and it has since been repeated with other entities, such as electrons, exposing the trippy phenomena that occurs at the small scales of atoms.

Now, scientists led by Romain Tirole, a PhD student studying nanophotonics at Imperial College London, have created a "temporal analogue of Young's slit experiment" by firing a beam of light at a special metamaterial called Indium Tin Oxide, according to a study published on Monday in Nature Physics (https://www.nature.com/articles/s41567-023-01993-w?utm_medium=affiliate&utm_source=commission_junction&utm_campaign=CONR_PF018_ECOM_GL_PHSS_ALWYS_DEEPLINK&utm_content=textlink&utm_term=PID100094349&CJEVENT=c616c324d26711ed81a0000f0a1cb82b). Metamaterials are artificial creations endowed with superpowers that are not found in nature. For instance, the Indium Tin Oxide used in the new study can change its properties in mere femtoseconds, a unit equal to a millionth of a billionth of a second. This incredible variability allows light waves to interact with the metamaterial at key moments in ultrafast succession, called "time slits," which produces a time-based diffraction pattern that is analogous to the results returned in the spatial version of the experiment. [...] In other words, the super-speedy changeability of Indium Tin Oxide finally made a time slit experiment possible, after many years of eluding scientists. To bring this vision to reality, Tirole and his colleagues used lasers to switch the reflectance of the material on and off at high speeds.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 18, 2023, 23:08:14 pm
Citar
La historia de la tecnología a largo plazo en una infografía de Max Roser (https://www.microsiervos.com/archivo/tecnologia/historia-tecnologia-largo-plazo-infografia-max-roser.html)
POR @ALVY (https://twitter.com/alvy) — 18 DE ABRIL DE 2023

(https://i.imgur.com/Rp3Etgf.jpg)

Max Roser de Our World in Data (https://ourworldindata.org/) publicó hace unas semanas esta infografía titulada La tecnología en el largo plazo (https://ourworldindata.org/technology-long-run) para mostrar cuán drásticamente pueden cambiar nuestras vidas con cada pliegue de la historia.

La infografía es brillante y utiliza una escala de estilo logarítmico: la zona central son sólo los 200 últimos años, luego hay unos pliegues de mil en mil años y una espiral de círculos que representa 200.000 años en cada vuelta. En total abarca 3,4 millones de años, que es más o menos el tiempo que hace que algún ancestro de nuestra especie utilizó una «herramienta» fuera eso lo que fuera, probablemente un hueso para partirle la cabeza al mono de la tribu de al lado, como en 2001.

En los pliegues de mil años están marcados estratégicamente los momentos claves para la tecnología en la historia, entre ellos:
  • La invención del papel
  • El molino de viento
  • La pólvora
  • La imprenta
  • El microscopio
  • La máquina de vapor
  • La fotografía
  • El telégrafo
  • La luz eléctrica
  • El automóvil
  • La televisión
  • Las armas nucleares
  • Los primeros ordenadores
  • Internet
  • Los teléfonos móviles inteligentes
Para el futuro cercano –próximas décadas– están previstas la llegada de la AGI (inteligencia artificial general, de nivel humano) y la exploración en persona del espacio más allá del sistema Tierra-Luna. En general hay que observar que las gentes de cada época denominan «tecnología» a cualquier invento que no existiera cuando ellos nacieron. Por eso en la época actual convivimos los que consideramos a Internet tecnología (por suerte ya no «nueva») con los mal llamados nativos digitales, igual que hace tiempo sucedía con la televisión en color o las cámaras de fotos digitales.

Además de la infografía el artículo también merece la pena, con explicaciones sobre cómo fue la irrupción de todas estas tecnologías en su momento y los problemas que conllevaron (y conllevan) así como la forma de solucionarlos.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 25, 2023, 21:59:07 pm
Citar
NASA Demonstrates a Breakthrough In 3D Printable High-Temperature Materials (https://science.slashdot.org/story/23/04/25/0115249/nasa-demonstrates-a-breakthrough-in-3d-printable-high-temperature-materials)
Posted by BeauHD on Tuesday April 25, 2023 @06:00AM from the stronger-than-ever dept.

NASA has developed (https://www.nasa.gov/image-feature/nasas-new-3d-printed-superalloy-can-take-the-heat) a new superalloy called GRX-810 that could lead to stronger, more durable parts for airplanes and spacecraft (https://scitechdaily.com/nasas-super-alloy-a-breakthrough-in-3d-printing-technology/). SciTechDaily reports:
Citar
GRX-810 is an oxide dispersion strengthened alloy. In other words, tiny particles containing oxygen atoms spread throughout the alloy enhance its strength. Such alloys are excellent candidates to build aerospace parts for high-temperature applications, like those inside aircraft and rocket engines, because they can withstand harsher conditions before reaching their breaking points. Current state-of-the-art 3D printed superalloys can withstand temperatures up to 2,000 degrees Fahrenheit. Compared to those, GRX-810 is twice as strong, over 1,000 times more durable, and twice as resistant to oxidation.

"This new alloy is a major achievement," said Dale Hopkins, deputy project manager of NASA's Transformational Tools and Technologies project. "In the very near future, it may well be one of the most successful technology patents NASA Glenn has ever produced." GRX-810 was developed under NASA's Transformational Tools and Technologies project, with support from the agency's Game Changing Development Program.
The peer-reviewed paper has been published in the journal Nature (https://www.nature.com/articles/s41586-023-05893-0).
Saludos.
Título: Re:STEM
Publicado por: Saturio en Abril 26, 2023, 11:21:18 am
Citar
NASA Demonstrates a Breakthrough In 3D Printable High-Temperature Materials (https://science.slashdot.org/story/23/04/25/0115249/nasa-demonstrates-a-breakthrough-in-3d-printable-high-temperature-materials)
Posted by BeauHD on Tuesday April 25, 2023 @06:00AM from the stronger-than-ever dept.

NASA has developed (https://www.nasa.gov/image-feature/nasas-new-3d-printed-superalloy-can-take-the-heat) a new superalloy called GRX-810 that could lead to stronger, more durable parts for airplanes and spacecraft (https://scitechdaily.com/nasas-super-alloy-a-breakthrough-in-3d-printing-technology/). SciTechDaily reports:
Citar
GRX-810 is an oxide dispersion strengthened alloy. In other words, tiny particles containing oxygen atoms spread throughout the alloy enhance its strength. Such alloys are excellent candidates to build aerospace parts for high-temperature applications, like those inside aircraft and rocket engines, because they can withstand harsher conditions before reaching their breaking points. Current state-of-the-art 3D printed superalloys can withstand temperatures up to 2,000 degrees Fahrenheit. Compared to those, GRX-810 is twice as strong, over 1,000 times more durable, and twice as resistant to oxidation.

"This new alloy is a major achievement," said Dale Hopkins, deputy project manager of NASA's Transformational Tools and Technologies project. "In the very near future, it may well be one of the most successful technology patents NASA Glenn has ever produced." GRX-810 was developed under NASA's Transformational Tools and Technologies project, with support from the agency's Game Changing Development Program.
The peer-reviewed paper has been published in the journal Nature (https://www.nature.com/articles/s41586-023-05893-0).
Saludos.

Con respecto a esto el Terran1 de Relativity Space consiguió ser lanzado aunque no llegó a alcanzar órbita.
Creo que Relativity Space no va a continuar con su programa pero se quedan lo que han aprendido de impresión 3d

Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 27, 2023, 08:40:15 am
Citar
The First IVF Babies Conceived By a Robot Have Been Born (https://hardware.slashdot.org/story/23/04/26/2242224/the-first-ivf-babies-conceived-by-a-robot-have-been-born)
Posted by BeauHD on Wednesday April 26, 2023 @11:30PM from the sperm-injecting-robots dept.

An anonymous reader quotes a report from MIT Technology Review:
Citar
Last spring, engineers in Barcelona packed up the sperm-injecting robot they'd designed and sent it by DHL to New York City. They followed it to a clinic there, called New Hope Fertility Center, where they put the instrument back together, assembling a microscope, a mechanized needle, a tiny petri dish, and a laptop. Then one of the engineers, with no real experience in fertility medicine, used a Sony PlayStation 5 controller to position a robotic needle. Eyeing a human egg through a camera, it then moved forward on its own, penetrating the egg and dropping off a single sperm cell. Altogether, the robot was used to fertilize more than a dozen eggs. The result of the procedures, say the researchers, were healthy embryos—and now two baby girls, who they claim are the first people born after fertilization by a "robot. (https://www.technologyreview.com/2023/04/25/1071933/first-babies-conceived-sperm-injecting-robot-ivf-automation-icsi-overture/)"

The startup company that developed the robot, Overture Life, says its device is an initial step toward automating in vitro fertilization, or IVF, and potentially making the procedure less expensive and far more common than it is today. Right now, IVF labs are multimillion-dollar affairs staffed by trained embryologists who earn upwards of $125,000 a year to delicately handle sperm and eggs using ultra-thin hollow needles under a microscope. But some startups say the entire process could be carried out automatically, or nearly so. Overture, for instance, has filed a patent application describing a "biochip" for an IVF lab in miniature, complete with hidden reservoirs containing growth fluids, and tiny channels for sperm to wiggle through.

"Think of a box where sperm and eggs go in, and an embryo comes out five days later," says Santiago Munne, the prize-winning geneticist who is chief innovation officer at the Spanish company. He believes that if IVF could be carried out inside a desktop instrument, patients might never need to visit a specialized clinic, where a single attempt at getting pregnant can cost $20,000 in the US. Instead, he says, a patient's eggs might be fed directly into an automated fertility system at a gynecologist's office. "It has to be cheaper. And if any doctor could do it, it would be," says Munne.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Mayo 01, 2023, 12:11:25 pm
Citar
El pequeño robot OP3 que resiste los embates de sus creadores y ha aprendido a jugar al fútbol dignamente (https://www.microsiervos.com/archivo/robots/robot-op3-embates-jugar-futbol.html)
POR @ALVY (https://twitter.com/alvy) — 29 DE ABRIL DE 2023

(https://i.imgur.com/SIbBIxN.jpg) (https://www.youtube.com/watch?v=KSvLcr5HtNc)
OP3 Soccer | Robustness to pushes (https://www.youtube.com/watch?v=KSvLcr5HtNc)

Este simpático robot se llama OP3 y es el protagonista de la investigación en aprendizaje mediante refuerzo profundo (Deep RL) en los laboratorios de DeepMind. En este primer vídeo se puede ver una de sus habilidades: resistir los embates y golpes de los adversarios, mateniéndose en pie o levantándose del suelo cueste lo que cueste. Cuesta no empatizar con su causa.

La forma en que se entrena a estos robots la cuentan en este trabajo de DeepMind: Learning Agile Soccer Skills for a Bipedal Robot with Deep Reinforcement Learning (https://arxiv.org/abs/2304.13653). Allí se muestra cómo el escenario habitual es una simulación de partido uno-contra-uno y los protagonistas unos OP3 de Robotis (https://emanual.robotis.com/docs/en/platform/op3/introduction/) con pequeñas modificaciones, que tienen 20 juntas entre brazos y piernas con las que realizar movimientos.

(https://i.imgur.com/0uEUEMY.jpg) (https://www.youtube.com/watch?v=chMwFy6kXhs)
OP3 Soccer | Learning Agile Soccer Skills for a Bipedal Robot with Deep Reinforcement Learning (https://www.youtube.com/watch?v=chMwFy6kXhs)

Tal y como puede verse en el vídeo los robots aprenden cosas que son un tanto contrarias a lo que cabría esperar sin demasiada información, tales como como caerse y levantarse, lanzar un penalti o jugadas defensivas tales como bloquear la pelota, que forman parte de la estrategia del juego.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Mayo 07, 2023, 08:26:18 am
Citar
Dished Up By 3D Printers, a New Kind of Fish To Fry (https://tech.slashdot.org/story/23/05/05/1724229/dished-up-by-3d-printers-a-new-kind-of-fish-to-fry)
Posted by msmash on Friday May 05, 2023 @01:24PM from the closer-look dept.

Forget your hook, line and sinker. An Israeli foodtech company says it has 3D printed the first ever ready-to-cook fish fillet (https://www.reuters.com/world/middle-east/dished-up-by-3d-printers-new-kind-fish-fry-2023-05-03/) using animal cells cultivated and grown in a laboratory. From a report:
Citar
Lab-grown beef and chicken have drawn attention as a way to sidestep the environmental toll of farming and tackle concerns over animal welfare, but few companies have forayed into seafood. Israel's Steakholder Foods has now partnered with Singapore-based Umami Meats to make fish fillets without the need to stalk dwindling fish populations. Umami Meats extracts cells - for now from grouper - and grows them into muscle and fat. Steakholder Foods then adds them to a 'bio-ink' suited for special 3D printers. The outcome: a narrow fillet that mimics the properties of sea-caught fish.

Umami hopes to bring its first products to market next year, starting in Singapore and then, pending regulation, countries like the United States and Japan. Cell cultivation alone is still too expensive to match the cost of traditional seafood, so for now the fish cells are diluted with plant-based ingredients in the bio-ink. "As time goes by, the complexity and level of these products will be higher, and the prices linked to producing them will decrease," said Arik Kaufman, the chief executive of Steakholder Foods.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Mayo 07, 2023, 08:33:08 am
Citar
Bill Gates Visits Planned Site of 'Most Advanced Nuclear Facility in the World' (https://hardware.slashdot.org/story/23/05/06/2130250/bill-gates-visits-planned-site-of-most-advanced-nuclear-facility-in-the-world)
Posted by EditorDavid on Saturday May 06, 2023 @06:34PM from the power-plays dept.

Friday Bill Gates visited Kemmerer, Wyoming (population: 2,656) — where a coal plant was shutting down after 50 years. But Gates was there "to celebrate the latest step in a project that's been more than 15 years in the making: designing and building a next-generation nuclear power plant (https://www.gatesnotes.com/Wyoming-TerraPower)..."

The new plant will employ "between 200 and 250 people," Gates writes in a blog post, "and those with experience in the coal plant will be able to do many of the jobs — such as operating a turbine and maintaining connections to the power grid — without much retraining."

Citar
It's called the Natrium plant (https://www.terrapower.com/our-work/natriumpower/), and it was designed by TerraPower (https://www.terrapower.com/), a company I started in 2008. When it opens (potentially in 2030), it will be the most advanced nuclear facility in the world, and it will be much safer and produce far less waste than conventional reactors.

All of this matters because the world needs to make a big bet on nuclear. As I wrote in my book How to Avoid a Climate Disaster (https://www.penguinrandomhouse.com/books/633968/how-to-avoid-a-climate-disaster-by-bill-gates/) , we need nuclear power if we're going to meet the world's growing need for energy while also eliminating carbon emissions. None of the other clean sources are as reliable, and none of the other reliable sources are as clean...

Another thing that sets TerraPower apart is its digital design process. Using supercomputers, they've digitally tested the Natrium design countless times, simulating every imaginable disaster, and it keeps holding up. TerraPower's sophisticated work has drawn interest from around the globe, including an agreement (https://www.terrapower.com/terrapower-mou-jaea-sfr/) to collaborate on nuclear power technology in Japan and investments from the South Korean conglomerate SK (https://www.terrapower.com/fundraise/) and the multinational steel company ArcelorMittal (https://corporate.arcelormittal.com/media/press-releases/arcelormittal-invests-25-million-in-breakthrough-nuclear-power-innovator-terrapower)...

I'm excited about this project because of what it means for the future. It's the kind of effort that will help America maintain its energy independence. And it will help our country remain a leader in energy innovation worldwide. The people of Kemmerer are at the forefront of the equitable transition to a clean, safe energy future, and it's great to be partnering with them.
Gates writes that for safety the plant uses liquid sodium (instead of water) to absorb excess heat, and it even has an energy storage system "to control how much electricity it produces at any given time..."

"I'm convinced that the facility will be a win for the local economy, America's energy independence, and the fight against climate change.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Mayo 10, 2023, 06:24:37 am
Citar
Scientists Find Link Between Photosynthesis and 'Fifth State of Matter' (https://science.slashdot.org/story/23/05/09/012223/scientists-find-link-between-photosynthesis-and-fifth-state-of-matter)
Posted by BeauHD on Tuesday May 09, 2023 @06:00AM from the would-you-look-at-that dept.

Louise Lerner writes via Phys.Org:
Citar
Inside a lab, scientists marvel at a strange state that forms when they cool down atoms to nearly absolute zero. Outside their window, trees gather sunlight and turn them into new leaves. The two seem unrelated -- but a new study from the University of Chicago suggests that these processes aren't so different as they might appear on the surface (https://phys.org/news/2023-05-scientists-link-photosynthesis-state.html). The study, published in PRX Energy on April 28 (https://dx.doi.org/10.1103/PRXEnergy.2.023002), found links at the atomic level between photosynthesis and exciton condensates -- a strange state of physics that allows energy to flow frictionlessly through a material. The finding is scientifically intriguing and may suggest new ways to think about designing electronics, the authors said.

When a photon from the sun strikes a leaf, it sparks a change in a specially designed molecule. The energy knocks loose an electron. The electron, and the "hole" where it once was, can now travel around the leaf, carrying the energy of the sun to another area where it triggers a chemical reaction to make sugars for the plant. Together, that traveling electron-and-hole-pair is referred to as an "exciton." When the team took a birds-eye view and modeled how multiple excitons move around, they noticed something odd. They saw patterns in the paths of the excitons that looked remarkably familiar. In fact, it looked very much like the behavior in a material that is known as a Bose-Einstein condensate, sometimes known as "the fifth state of matter." In this material, excitons can link up into the same quantum state -- kind of like a set of bells all ringing perfectly in tune. This allows energy to move around the material with zero friction. (These sorts of strange behaviors intrigue scientists because they can be the seeds for remarkable technology -- for example, a similar state called superconductivity is the basis for MRI machines).

According to the models [...], the excitons in a leaf can sometimes link up in ways similar to exciton condensate behavior. This was a huge surprise. Exciton condensates have only been seen when the material is cooled down significantly below room temperature. It'd be kind of like seeing ice cubes forming in a cup of hot coffee. "Photosynthetic light harvesting is taking place in a system that is at room temperature and what's more, its structure is disordered -- very unlike the pristine crystallized materials and cold temperatures that you use to make exciton condensates," explained [study co-author Anna Schouten]. This effect isn't total -- it's more akin to "islands" of condensates forming, the scientists said. "But that's still enough to enhance energy transfer in the system," said Sager-Smith. In fact, their models suggest it can as much as double the efficiency.
The findings open up some new possibilities for generating synthetic materials for future technology, said study co-author Prof. David Mazziotti. "A perfect ideal exciton condensate is sensitive and requires a lot of special conditions, but for realistic applications, it's exciting to see something that boosts efficiency but can happen in ambient conditions."
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Mayo 11, 2023, 07:27:28 am
https://www.expansion.com/economia-sostenible/2023/05/10/645a56a7e5fdea55508b459e.html (https://www.expansion.com/economia-sostenible/2023/05/10/645a56a7e5fdea55508b459e.html)

(https://i.imgur.com/pQgfUfj.jpg)

Saludos.
Título: Re:STEM
Publicado por: sudden and sharp en Junio 07, 2023, 11:02:46 am
Citar
El tren demostrador ha sido el primer tren de hidrógeno que consigue dicho hito. Se trata de un hito destacado, ya que la línea de Canfranc es una línea especialmente exigente debido a sus rampas pronunciadas y elevadas, que suponen un gran desafío para los nuevos sistemas de generación de energía embarcados. Para ello, el tren demostrador, una unidad de Cercanías de Renfe, ha circulado en la línea Zaragoza-Canfranc tanto en modo eléctrico, en la zona electrificada, como en modo híbrido, combinando la energía proveniente de las pilas de hidrógeno y de las baterías, en los tramos sin electrificar.


El tren de hidrógeno circula en pruebas en la línea Zaragoza-Canfranc
https://www.eleconomista.es/transportes-turismo/noticias/12311277/06/23/el-tren-de-hidrogeno-circula-en-pruebas-en-la-linea-zaragozacanfranc.html (https://www.eleconomista.es/transportes-turismo/noticias/12311277/06/23/el-tren-de-hidrogeno-circula-en-pruebas-en-la-linea-zaragozacanfranc.html)



(https://s10.s3c.es/imag/_v0/1200x655/7/6/0/tren-hidrogeno.jpg)
Título: Re:STEM
Publicado por: pollo en Junio 07, 2023, 18:30:31 pm
Citar
El tren demostrador ha sido el primer tren de hidrógeno que consigue dicho hito. Se trata de un hito destacado, ya que la línea de Canfranc es una línea especialmente exigente debido a sus rampas pronunciadas y elevadas, que suponen un gran desafío para los nuevos sistemas de generación de energía embarcados. Para ello, el tren demostrador, una unidad de Cercanías de Renfe, ha circulado en la línea Zaragoza-Canfranc tanto en modo eléctrico, en la zona electrificada, como en modo híbrido, combinando la energía proveniente de las pilas de hidrógeno y de las baterías, en los tramos sin electrificar.


El tren de hidrógeno circula en pruebas en la línea Zaragoza-Canfranc
https://www.eleconomista.es/transportes-turismo/noticias/12311277/06/23/el-tren-de-hidrogeno-circula-en-pruebas-en-la-linea-zaragozacanfranc.html (https://www.eleconomista.es/transportes-turismo/noticias/12311277/06/23/el-tren-de-hidrogeno-circula-en-pruebas-en-la-linea-zaragozacanfranc.html)



(https://s10.s3c.es/imag/_v0/1200x655/7/6/0/tren-hidrogeno.jpg)
No entiendo el dilema aquí (aparte de hacer una demo). Si hay tramos sin electrificar siempre va a ser mejor hacer una obra y electrificarlos, y así está resuelto el problema para siempre, además de que no requiere trenes especiales y es más eficiente.

El hidrógeno, tras darle muchas vueltas y siguiendo el consenso de la mayor parte de expertos en el tema es muy mala alternativa y con una eficiencia muy dudosa.
Título: Re:STEM
Publicado por: sudden and sharp en Junio 07, 2023, 19:26:20 pm
Pero el H2 proviene de energía renovable... (que había que almacenar para no perderla.) Y además, sólo es el primero.
Título: Re:STEM
Publicado por: pollo en Junio 07, 2023, 21:18:28 pm
Pero el H2 proviene de energía renovable... (que había que almacenar para no perderla.) Y además, sólo es el primero.
Espero respuestas más elaboradas que una línea con lo primero que hayas oído por ahí.

El H2 hoy por hoy proviene del refinado del petróleo porque no hay actualmente técnicas de producción industrial que escalen de forma eficiente, con lo que la supuesta ventaja inicial ya no existe.

Además de eso, siguen sin resolverse toda la larga lista de problemas que tiene su almacenamiento y transporte. Entre otros muchos inconvenientes, el H2 tiende a corroerlo todo por su alta tendencia a reaccionar con básicamente todo. Mientras no se solucionen esos problemas a escala industrial (y se lleva años intentando), el H2 no vale.

Se ha hablado largo y tendido ya en este mismo hilo. Lo mínimo es saber lo que ya se ha hablado.
Título: Re:STEM
Publicado por: sudden and sharp en Junio 07, 2023, 22:35:57 pm
Eso, tú espera...
Título: Re:STEM
Publicado por: puede ser en Junio 07, 2023, 23:43:55 pm
Pero el H2 proviene de energía renovable... (que había que almacenar para no perderla.) Y además, sólo es el primero.
Espero respuestas más elaboradas que una línea con lo primero que hayas oído por ahí.

El H2 hoy por hoy proviene del refinado del petróleo porque no hay actualmente técnicas de producción industrial que escalen de forma eficiente, con lo que la supuesta ventaja inicial ya no existe.

Además de eso, siguen sin resolverse toda la larga lista de problemas que tiene su almacenamiento y transporte. Entre otros muchos inconvenientes, el H2 tiende a corroerlo todo por su alta tendencia a reaccionar con básicamente todo. Mientras no se solucionen esos problemas a escala industrial (y se lleva años intentando), el H2 no vale.

Se ha hablado largo y tendido ya en este mismo hilo. Lo mínimo es saber lo que ya se ha hablado.
https://hidrogeno-verde.es/primera-instalacion-de-produccion-comercial-de-metanol-verde/

Maersk apuesta por convertir el hidrógeno (verde) en metanol (verde). Si sale bien seguirán en Galicia y Andalucía, como se habló.
Título: Re:STEM
Publicado por: Cadavre Exquis en Junio 08, 2023, 07:37:01 am
(https://i.imgur.com/nZX1By8.jpg)
https://twitter.com/OriolVinyalsML/status/1666557792289804290 (https://twitter.com/OriolVinyalsML/status/1666557792289804290)

Citar
AlphaDev discovers faster sorting algorithms (https://www.deepmind.com/blog/alphadev-discovers-faster-sorting-algorithms)

June 7, 2023

(https://i.imgur.com/l7scxb3.jpg)

New algorithms will transform the foundations of computing
Digital society is driving increasing demand for computation, and energy use. For the last five decades, we relied on improvements in hardware to keep pace. But as microchips approach their physical limits, it’s critical to improve the code that runs on them to make computing more powerful and sustainable. This is especially important for the algorithms that make up the code running trillions of times a day.

In our paper published today in Nature, we introduce AlphaDev, an artificial intelligence (AI) system that uses reinforcement learning to discover enhanced computer science algorithms – surpassing those honed by scientists and engineers over decades.

AlphaDev uncovered a faster algorithm for sorting, a method for ordering data. Billions of people use these algorithms everyday without realising it. They underpin everything from ranking online search results and social posts to how data is processed on computers and phones. Generating better algorithms using AI will transform how we program computers and impact all aspects of our increasingly digital society.

By open sourcing our new sorting algorithms in the main C++ library, millions of developers and companies around the world now use it on AI applications across industries from cloud computing and online shopping to supply chain management. This is the first change to this part of the sorting library in over a decade and the first time an algorithm designed through reinforcement learning has been added to this library. We see this as an important stepping stone for using AI to optimise the world’s code, one algorithm at a time.

What is sorting?

Sorting is a method of organising a number of items in a particular order. Examples include alphabetising three letters, arranging five numbers from biggest to smallest, or ordering a database of millions of records.

This method has evolved throughout history. One of the earliest examples dates back to the second and third century when scholars alphabetised thousands of books by hand on the shelves of the Great Library of Alexandria. Following the industrial revolution, came the invention of machines that could help with sorting – tabulation machines stored information on punch cards which were used to collect the 1890 census results in the United States.

And with the rise of commercial computers in the 1950s, we saw the development of the earliest computer science algorithms for sorting. Today, there are many different sorting techniques and algorithms which are used in codebases around the world to organise massive amounts of data online.

(https://i.imgur.com/Fl02hqM.png)
Illustration of what a sorting algorithm does. A series of unsorted numbers is input into the algorithm and sorted numbers are output.

Contemporary algorithms took computer scientists and programmers decades of research to develop. They’re so efficient that making further improvements is a major challenge, akin to trying to find a new way to save electricity or a more efficient mathematical approach. These algorithms are also a cornerstone of computer science, taught in introductory computer science classes at universities.

Searching for new algorithms

AlphaDev uncovered faster algorithms by starting from scratch rather than refining existing algorithms, and began looking where most humans don’t: the computer’s assembly instructions.

Assembly instructions are used to create binary code for computers to put into action. While developers write in coding languages like C++, known as high-level languages, this must be translated into ‘low-level’ assembly instructions for computers to understand.

We believe many improvements exist at this lower level that may be difficult to discover in a higher-level coding language. Computer storage and operations are more flexible at this level, which means there are significantly more potential improvements that could have a larger impact on speed and energy usage.

(https://i.imgur.com/1uDLBP0.png)
Code is typically written in a high level programming language such as C++. This is then translated to low-level CPU instructions, called assembly instructions, using a compiler. An assembler then converts the assembly instructions to executable machine code that the computer can run.

(https://i.imgur.com/CpIM66V.png)
Figure A: An example C++ algorithm that sorts up to two elements.
‍Figure B: The corresponding assembly representation of the code.

Finding the best algorithms with a game

AlphaDev is based on AlphaZero, our reinforcement learning model that defeated world champions in games like Go, chess and shogi. With AlphaDev, we show how this model can transfer from games to scientific challenges, and from simulations to real-world applications.

To train AlphaDev to uncover new algorithms, we transformed sorting into a single player ‘assembly game’. At each turn, AlphaDev observes the algorithm it has generated and the information contained in the central processing unit (CPU). Then it plays a move by choosing an instruction to add to the algorithm..

The assembly game is incredibly hard because AlphaDev has to efficiently search through an enormous number of possible combinations of instructions to find an algorithm that can sort, and is faster than the current best one. The number of possible combinations of instructions is similar to the number of particles in the universe or the number of possible combinations of moves in games of chess (10120 games) and Go (10700 games). And a single, wrong move can invalidate the entire algorithm.

(https://i.imgur.com/EpkHAkG.png)
Figure A: The assembly game. The player, AlphaDev, receives the state of the system st as input and plays a move at by selecting an assembly instruction to add to the algorithm that has been generated thus far.
Figure B: The reward computation. After each move, the generated algorithm is fed test input sequences - for sort3, this corresponds to all combinations of sequences of three elements. The algorithm then generates an output, which is compared to the expected output of sorted sequences for the case of sorting. The agent is rewarded based on the algorithm's correctness and latency.

As the algorithm is built, one instruction at a time, AlphaDev checks that it’s correct by comparing the algorithm’s output with the expected results. For sorting algorithms, this means unordered numbers go in and correctly sorted numbers come out. We reward AlphaDev for both sorting the numbers correctly and for how quickly and efficiently it does so. AlphaDev wins the game by discovering a correct, faster program.

Discovering faster sorting algorithms

AlphaDev uncovered new sorting algorithms that led to improvements in the LLVM libc++ sorting library that were up to 70% faster for shorter sequences and about 1.7% faster for sequences exceeding 250,000 elements.

We focused on improving sorting algorithms for shorter sequences of three to five elements. These algorithms are among the most widely used because they are often called many times as a part of larger sorting functions. Improving these algorithms can lead to an overall speedup for sorting any number of items.

To make the new sorting algorithm more usable for people, we reverse-engineered the algorithms and translated them into C++, one of the most popular coding languages that developers use. These algorithms are now available in the LLVM libc++ standard sorting library, used by millions of developers and companies around the world.

Finding novel approaches

AlphaDev not only found faster algorithms, but also uncovered novel approaches. Its sorting algorithms contain new sequences of instructions that save a single instruction each time they’re applied. This can have a huge impact as these algorithms are used trillions of times a day.

We call these ‘AlphaDev swap and copy moves’. This novel approach is reminiscent of AlphaGo’s ‘move 37’ – a counterintuitive play that stunned onlookers and led to the defeat of a legendary Go player. With the swap and copy move, AlphaDev skips over a step to connect items in a way that looks like a mistake but is actually a shortcut. This shows AlphaDev’s ability to uncover original solutions and challenges the way we think about how to improve computer science algorithms.

(https://i.imgur.com/lYCMFW4.png)
Left: The original sort3 implementation with min(A,B,C).
‍Right: AlphaDev Swap Move - AlphaDev discovers that you only need min(A,B).

(https://i.imgur.com/ik7LAwr.png)
Left: The original implementation with max (B, min (A, C, D))used in a larger sorting algorithm for sorting eight elements.
Right: AlphaDev discovered that only max (B, min (A, C)) is needed when using its copy move.

From sorting to hashing in data structures

After discovering faster sorting algorithms, we tested whether AlphaDev could generalise and improve a different computer science algorithm: hashing.

Hashing is a fundamental algorithm in computing used to retrieve, store, and compress data. Like a librarian who uses a classification system to locate a certain book, hashing algorithms help users know what they’re looking for and exactly where to find it. These algorithms take data for a specific key (e.g. user name “Jane Doe”) and hashes it – a process where raw data is turned into a unique string of characters (e.g 1234ghfty). This hash is used by the computer to retrieve the data related to the key quickly rather than searching all of the data.

We applied AlphaDev to one of the most commonly used algorithms for hashing in data structures to try and discover a faster algorithm. And when we applied it to the 9-16 bytes range of the hashing function, the algorithm that AlphaDev discovered was 30% faster.

This year, AlphaDev’s new hashing algorithm was released into the open-source Abseil library, available to millions of developers around the world, and we estimate that it’s now being used trillions of times a day.

Optimising the world’s code, one algorithm at a time

By optimising and launching improved sorting and hashing algorithms used by developers all around the world, AlphaDev has demonstrated its ability to generalise and discover new algorithms with real-world impact. We see AlphaDev as a step towards developing general-purpose AI tools that could help optimise the entire computing ecosystem and solve other problems that will benefit society.

While optimising in the space of low-level assembly instructions is very powerful, there are limitations as the algorithm grows, and we are currently exploring AlphaDev’s ability to optimise algorithms directly in high-level languages such as C++ which would be more useful for developers.

AlphaDev’s discoveries, such as the swap and copy moves, not only show that it can improve algorithms but also find new solutions. We hope these discoveries inspire researchers and developers alike to create techniques and approaches that can further optimise fundamental algorithms to create a more powerful and sustainable computing ecosystem.
Saludos.
Título: Re:STEM
Publicado por: pollo en Junio 08, 2023, 09:20:00 am
(https://i.imgur.com/nZX1By8.jpg)
https://twitter.com/OriolVinyalsML/status/1666557792289804290 (https://twitter.com/OriolVinyalsML/status/1666557792289804290)

Citar
AlphaDev discovers faster sorting algorithms (https://www.deepmind.com/blog/alphadev-discovers-faster-sorting-algorithms)

June 7, 2023

(https://i.imgur.com/l7scxb3.jpg)

New algorithms will transform the foundations of computing
Digital society is driving increasing demand for computation, and energy use. For the last five decades, we relied on improvements in hardware to keep pace. But as microchips approach their physical limits, it’s critical to improve the code that runs on them to make computing more powerful and sustainable. This is especially important for the algorithms that make up the code running trillions of times a day.

In our paper published today in Nature, we introduce AlphaDev, an artificial intelligence (AI) system that uses reinforcement learning to discover enhanced computer science algorithms – surpassing those honed by scientists and engineers over decades.

AlphaDev uncovered a faster algorithm for sorting, a method for ordering data. Billions of people use these algorithms everyday without realising it. They underpin everything from ranking online search results and social posts to how data is processed on computers and phones. Generating better algorithms using AI will transform how we program computers and impact all aspects of our increasingly digital society.

By open sourcing our new sorting algorithms in the main C++ library, millions of developers and companies around the world now use it on AI applications across industries from cloud computing and online shopping to supply chain management. This is the first change to this part of the sorting library in over a decade and the first time an algorithm designed through reinforcement learning has been added to this library. We see this as an important stepping stone for using AI to optimise the world’s code, one algorithm at a time.

What is sorting?

Sorting is a method of organising a number of items in a particular order. Examples include alphabetising three letters, arranging five numbers from biggest to smallest, or ordering a database of millions of records.

This method has evolved throughout history. One of the earliest examples dates back to the second and third century when scholars alphabetised thousands of books by hand on the shelves of the Great Library of Alexandria. Following the industrial revolution, came the invention of machines that could help with sorting – tabulation machines stored information on punch cards which were used to collect the 1890 census results in the United States.

And with the rise of commercial computers in the 1950s, we saw the development of the earliest computer science algorithms for sorting. Today, there are many different sorting techniques and algorithms which are used in codebases around the world to organise massive amounts of data online.

(https://i.imgur.com/Fl02hqM.png)
Illustration of what a sorting algorithm does. A series of unsorted numbers is input into the algorithm and sorted numbers are output.

Contemporary algorithms took computer scientists and programmers decades of research to develop. They’re so efficient that making further improvements is a major challenge, akin to trying to find a new way to save electricity or a more efficient mathematical approach. These algorithms are also a cornerstone of computer science, taught in introductory computer science classes at universities.

Searching for new algorithms

AlphaDev uncovered faster algorithms by starting from scratch rather than refining existing algorithms, and began looking where most humans don’t: the computer’s assembly instructions.

Assembly instructions are used to create binary code for computers to put into action. While developers write in coding languages like C++, known as high-level languages, this must be translated into ‘low-level’ assembly instructions for computers to understand.

We believe many improvements exist at this lower level that may be difficult to discover in a higher-level coding language. Computer storage and operations are more flexible at this level, which means there are significantly more potential improvements that could have a larger impact on speed and energy usage.

(https://i.imgur.com/1uDLBP0.png)
Code is typically written in a high level programming language such as C++. This is then translated to low-level CPU instructions, called assembly instructions, using a compiler. An assembler then converts the assembly instructions to executable machine code that the computer can run.

(https://i.imgur.com/CpIM66V.png)
Figure A: An example C++ algorithm that sorts up to two elements.
‍Figure B: The corresponding assembly representation of the code.

Finding the best algorithms with a game

AlphaDev is based on AlphaZero, our reinforcement learning model that defeated world champions in games like Go, chess and shogi. With AlphaDev, we show how this model can transfer from games to scientific challenges, and from simulations to real-world applications.

To train AlphaDev to uncover new algorithms, we transformed sorting into a single player ‘assembly game’. At each turn, AlphaDev observes the algorithm it has generated and the information contained in the central processing unit (CPU). Then it plays a move by choosing an instruction to add to the algorithm..

The assembly game is incredibly hard because AlphaDev has to efficiently search through an enormous number of possible combinations of instructions to find an algorithm that can sort, and is faster than the current best one. The number of possible combinations of instructions is similar to the number of particles in the universe or the number of possible combinations of moves in games of chess (10120 games) and Go (10700 games). And a single, wrong move can invalidate the entire algorithm.

(https://i.imgur.com/EpkHAkG.png)
Figure A: The assembly game. The player, AlphaDev, receives the state of the system st as input and plays a move at by selecting an assembly instruction to add to the algorithm that has been generated thus far.
Figure B: The reward computation. After each move, the generated algorithm is fed test input sequences - for sort3, this corresponds to all combinations of sequences of three elements. The algorithm then generates an output, which is compared to the expected output of sorted sequences for the case of sorting. The agent is rewarded based on the algorithm's correctness and latency.

As the algorithm is built, one instruction at a time, AlphaDev checks that it’s correct by comparing the algorithm’s output with the expected results. For sorting algorithms, this means unordered numbers go in and correctly sorted numbers come out. We reward AlphaDev for both sorting the numbers correctly and for how quickly and efficiently it does so. AlphaDev wins the game by discovering a correct, faster program.

Discovering faster sorting algorithms

AlphaDev uncovered new sorting algorithms that led to improvements in the LLVM libc++ sorting library that were up to 70% faster for shorter sequences and about 1.7% faster for sequences exceeding 250,000 elements.

We focused on improving sorting algorithms for shorter sequences of three to five elements. These algorithms are among the most widely used because they are often called many times as a part of larger sorting functions. Improving these algorithms can lead to an overall speedup for sorting any number of items.

To make the new sorting algorithm more usable for people, we reverse-engineered the algorithms and translated them into C++, one of the most popular coding languages that developers use. These algorithms are now available in the LLVM libc++ standard sorting library, used by millions of developers and companies around the world.

Finding novel approaches

AlphaDev not only found faster algorithms, but also uncovered novel approaches. Its sorting algorithms contain new sequences of instructions that save a single instruction each time they’re applied. This can have a huge impact as these algorithms are used trillions of times a day.

We call these ‘AlphaDev swap and copy moves’. This novel approach is reminiscent of AlphaGo’s ‘move 37’ – a counterintuitive play that stunned onlookers and led to the defeat of a legendary Go player. With the swap and copy move, AlphaDev skips over a step to connect items in a way that looks like a mistake but is actually a shortcut. This shows AlphaDev’s ability to uncover original solutions and challenges the way we think about how to improve computer science algorithms.

(https://i.imgur.com/lYCMFW4.png)
Left: The original sort3 implementation with min(A,B,C).
‍Right: AlphaDev Swap Move - AlphaDev discovers that you only need min(A,B).

(https://i.imgur.com/ik7LAwr.png)
Left: The original implementation with max (B, min (A, C, D))used in a larger sorting algorithm for sorting eight elements.
Right: AlphaDev discovered that only max (B, min (A, C)) is needed when using its copy move.

From sorting to hashing in data structures

After discovering faster sorting algorithms, we tested whether AlphaDev could generalise and improve a different computer science algorithm: hashing.

Hashing is a fundamental algorithm in computing used to retrieve, store, and compress data. Like a librarian who uses a classification system to locate a certain book, hashing algorithms help users know what they’re looking for and exactly where to find it. These algorithms take data for a specific key (e.g. user name “Jane Doe”) and hashes it – a process where raw data is turned into a unique string of characters (e.g 1234ghfty). This hash is used by the computer to retrieve the data related to the key quickly rather than searching all of the data.

We applied AlphaDev to one of the most commonly used algorithms for hashing in data structures to try and discover a faster algorithm. And when we applied it to the 9-16 bytes range of the hashing function, the algorithm that AlphaDev discovered was 30% faster.

This year, AlphaDev’s new hashing algorithm was released into the open-source Abseil library, available to millions of developers around the world, and we estimate that it’s now being used trillions of times a day.

Optimising the world’s code, one algorithm at a time

By optimising and launching improved sorting and hashing algorithms used by developers all around the world, AlphaDev has demonstrated its ability to generalise and discover new algorithms with real-world impact. We see AlphaDev as a step towards developing general-purpose AI tools that could help optimise the entire computing ecosystem and solve other problems that will benefit society.

While optimising in the space of low-level assembly instructions is very powerful, there are limitations as the algorithm grows, and we are currently exploring AlphaDev’s ability to optimise algorithms directly in high-level languages such as C++ which would be more useful for developers.

AlphaDev’s discoveries, such as the swap and copy moves, not only show that it can improve algorithms but also find new solutions. We hope these discoveries inspire researchers and developers alike to create techniques and approaches that can further optimise fundamental algorithms to create a more powerful and sustainable computing ecosystem.
Saludos.
También hay que decir, para no caer en el sensacionalismo, que esta técnica ya dio un resultado en el algoritmo de la multiplicación de matrices. Pero claro, lo que permitía era acelerar las operaciones en un caso concreto (y que no se da con mucha frecuencia). Lo más probable es que los algoritmos que ya se conocen estén cerca o muy cerca del óptimo, que a priori no es posible conocer.

El optimizar algoritmos con diversas técnicas automatizadas (o sea, con otros algoritmos) es algo que lleva en investigación desde los años 70, por ponerlo en perspectiva.

Y también decir que esto no es la panacea:


https://www.meneame.net/m/ciencia/humanos-baten-ia-deepmind-forma-mas-eficiente-multiplicar (https://www.meneame.net/m/ciencia/humanos-baten-ia-deepmind-forma-mas-eficiente-multiplicar)
Citar
Los humanos baten a la IA de DeepMind con una forma más eficiente de multiplicar números

Dos expertos en álgebra agilizan el cálculo de matrices a partir del algoritmo descubierto por la máquina
Título: Re:STEM
Publicado por: Benzino Napaloni en Junio 08, 2023, 09:22:14 am
Esto de los "algoritmos mejorados" al final es parte del equivalente en informática de la Paradoja de Jevons.

¿No tienen desde hace tiempo la impresión de que a pesar de que tenemos pepinos cada vez más potentes, tanto ordenadores como móviles, hay más programas que van a saltos?

Los jugadores de videojuegos lo habrán notado perfectamente.


Si bien estos avances acabarán trayendo beneficios localizados, en conjunto lo que se obtiene es un retroceso. ¿Para qué esforzarnos en afinarlo si ya funciona?

De cara a la supercomputación, un algoritmo afinado puede marcar la diferencia entre resolver un problema en un tiempo razonable, o no resolverlo en la práctica. De cara al usuario corriente, para la inmensa mayoría de aplicaciones corrientes, el esfuerzo habría que dedicarlo no en buscar mejoras extremas, sino arreglar los omnipresentes problemas de deuda técnica, diseños incompletos, diseños hechos improvisando, etc. Problemas que hacen que una aplicación funcionen regular (o ni eso), y que a menudo quedan disimulados por una potencia enorme.

Hace algunas décadas se ejecutaban virguerías con 16 MB de RAM. Ahora 1GB no da ni para sonarse los mocos. Y no es precisamente porque haya aumentado la potencia demandada.

Para que se hagan una idea. Antes de que Google y Apple, y empresas muy gordas copasen el mercado de calcular la ruta óptima en una ciudad usando transporte público, probé una cuando los smartphones eran una novedad. Mi trayecto desde mi entonces casa a mi entonces oficina se podía hacer directo con una línea de metro. Sin transbordos. La aplicación se colgaba porque entraba en bucle debido a que la estación final tenía varias líneas más. Es decir, fallaban los conocimientos básicos de algoritmia de navegación de grafos.


A los ingenieros lo primero que nos enseñan es a no reinventar la rueda, y a usar componentes ya existentes en el mercado. Se deja el trabajo de desarrollar desde cero a las empresas que de verdad tienen músculo para eso.

Los ingenieros consideramos que estamos laboralmente a salvo. Eso sí, de bomberos apagafuegos. Tampoco nos van a faltar los dolores de cabeza hasta que nos jubilemos.
Título: Re:STEM
Publicado por: pollo en Junio 08, 2023, 09:33:01 am
Esto de los "algoritmos mejorados" al final es parte del equivalente en informática de la Paradoja de Jevons.

¿No tienen desde hace tiempo la impresión de que a pesar de que tenemos pepinos cada vez más potentes, tanto ordenadores como móviles, hay más programas que van a saltos?

Los jugadores de videojuegos lo habrán notado perfectamente.

Bueno, depende de a qué juegos nos refiramos. Para los triple A, la inmensa mayoría. Pero todavía queda bastante gente que intenta hacer las cosas bien, específicamente en los desarrolladores independientes o hobbistas que pueden hacer las cosas a su manera.

Personalmente, creo (por lo que he podido ver) que estas ineficiencias, a veces muy graves, vienen de una mezcla entre pereza, codicia, moda e ignorancia.

Pereza, porque gente que sabe hacer las cosas bien tira con lo mínimo porque vende igual (y total, el hardware está "sobrado"). La realidad es que no, que es muy fácil hacer que el hardware se sature, muchas veces por efectos colaterales. Por ejemplo los arrays de estructuras propiciadas por la programación orientada a objetos son mucho más lentos en memoria que las estructuras de arrays (orientación a datos), por cómo funcionan las CPU y la memoria cache.

Codicia, porque a las compañías que ponen la pasta les importa cero hacer un truño con tal de vender.

Moda, porque no se atiende a criterios técnicos sino que se siguen las "buzzword" de moda por parte de la caterva directiva, que impone tecnologías sin ton ni son porque es "lo que todo el mundo está usando". Esto es muy muy visible en el mundo web, donde auténticas montañas de mierda de interfaces de usuario en Javascript reimplementan funcionalidad que ya existe con muhca más calidad, eficiencia, accesibilidad y velocidad en el propio navegador. Esto es muy típico hoy día y sólo puede haber sido perpetrado por idiotas o ignorantes.
Hoy día hay oleadas de jóvenes que no saben hacer una web sin javascript (ni siquiera saben a nivel abstracto lo que hay por debajo), lo cual no es triste, es sobre todo muy preocupante sobre la formación que se recibe.

Ignorancia: la causa base de las tres anteriores.
Título: Re:STEM
Publicado por: Benzino Napaloni en Junio 08, 2023, 09:39:58 am
Bueno, depende de a qué juegos nos refiramos. Para los triple A, la inmensa mayoría. Pero todavía queda bastante gente que intenta hacer las cosas bien, específicamente en los desarrolladores independientes o hobbistas que pueden hacer las cosas a su manera.

Personalmente, creo (por lo que he podido ver) que estas ineficiencias, a veces muy graves, vienen de una mezcla entre pereza, codicia, moda e ignorancia.

Pereza, porque gente que sabe hacer las cosas bien tira con lo mínimo porque vende igual (y total, el hardware está "sobrado"). La realidad es que no, que es muy fácil hacer que el hardware se sature, muchas veces por efectos colaterales. Por ejemplo los arrays de estructuras propiciadas por la programación orientada a objetos son mucho más lentos en memoria que las estructuras de arrays (orientación a datos), por cómo funcionan las CPU y la memoria cache.

Codicia, porque a las compañías que ponen la pasta les importa cero hacer un truño con tal de vender.

Moda, porque no se atiende a criterios técnicos sino que se siguen las "buzzword" de moda por parte de la caterva directiva, que impone tecnologías sin ton ni son porque es "lo que todo el mundo está usando". Esto es muy muy visible en el mundo web, donde auténticas montañas de mierda de interfaces de usuario en Javascript reimplementan funcionalidad que ya existe con muhca más calidad, eficiencia, accesibilidad y velocidad en el propio navegador. Esto es muy típico hoy día y sólo puede haber sido perpetrado por idiotas o ignorantes.
Hoy día hay oleadas de jóvenes que no saben hacer una web sin javascript (ni siquiera saben a nivel abstracto lo que hay por debajo), lo cual no es triste, es sobre todo muy preocupante sobre la formación que se recibe.

Ignorancia: la causa base de las tres anteriores.

Si has picado Java, te sonará algo que vi en mi primer trabajo. Dos try kilométricos anidados :roto2: . Pasándose totalmente por el forro el hecho de que una excepción es muy barata de lanzar, pero carísima de capturar.

Otra que viví fue "solucionar" un problema de que el ejecutable era demasiado grande. ¿Solución? Marcar como inmutables toneladas de arrays hardcodeados que se usaban como fuente primaria de configuración.

Vamos, que como bien sabes no se trata tanto de hacer "virguerías" con el código sino de tener sentido crítico y agallas para defenderlo.


Una de las consecuencias finales es que los jefecillos que ya llevan años en esto han aprendido en la práctica que con esta forma de "funcionar" los proyectos mueren cada ciertos años por la absoluta imposibilidad de seguir manteniéndolos. No digamos ya hacer evolutivos. Con lo que sale a cuenta saltar a otro proyecto empezado desde cero.
Título: Re:STEM
Publicado por: pollo en Junio 08, 2023, 09:42:16 am
Pero el H2 proviene de energía renovable... (que había que almacenar para no perderla.) Y además, sólo es el primero.
Espero respuestas más elaboradas que una línea con lo primero que hayas oído por ahí.

El H2 hoy por hoy proviene del refinado del petróleo porque no hay actualmente técnicas de producción industrial que escalen de forma eficiente, con lo que la supuesta ventaja inicial ya no existe.

Además de eso, siguen sin resolverse toda la larga lista de problemas que tiene su almacenamiento y transporte. Entre otros muchos inconvenientes, el H2 tiende a corroerlo todo por su alta tendencia a reaccionar con básicamente todo. Mientras no se solucionen esos problemas a escala industrial (y se lleva años intentando), el H2 no vale.

Se ha hablado largo y tendido ya en este mismo hilo. Lo mínimo es saber lo que ya se ha hablado.
https://hidrogeno-verde.es/primera-instalacion-de-produccion-comercial-de-metanol-verde/

Maersk apuesta por convertir el hidrógeno (verde) en metanol (verde). Si sale bien seguirán en Galicia y Andalucía, como se habló.
Esto no tienen ninguna posibilidad de ser rentable. Ya estamos hablando de como mínimo tres procesos intermediarios de conversión de la energía original (petroleo -> hidrógeno -> metanol -> consumo) todos con unas pérdidas considerables por el camino. Saldrá una eficiencia parecida al coche de combustión (20-30%) pero con un proceso mucho más caro.
Título: Re:STEM
Publicado por: pollo en Junio 08, 2023, 09:44:46 am
Bueno, depende de a qué juegos nos refiramos. Para los triple A, la inmensa mayoría. Pero todavía queda bastante gente que intenta hacer las cosas bien, específicamente en los desarrolladores independientes o hobbistas que pueden hacer las cosas a su manera.

Personalmente, creo (por lo que he podido ver) que estas ineficiencias, a veces muy graves, vienen de una mezcla entre pereza, codicia, moda e ignorancia.

Pereza, porque gente que sabe hacer las cosas bien tira con lo mínimo porque vende igual (y total, el hardware está "sobrado"). La realidad es que no, que es muy fácil hacer que el hardware se sature, muchas veces por efectos colaterales. Por ejemplo los arrays de estructuras propiciadas por la programación orientada a objetos son mucho más lentos en memoria que las estructuras de arrays (orientación a datos), por cómo funcionan las CPU y la memoria cache.

Codicia, porque a las compañías que ponen la pasta les importa cero hacer un truño con tal de vender.

Moda, porque no se atiende a criterios técnicos sino que se siguen las "buzzword" de moda por parte de la caterva directiva, que impone tecnologías sin ton ni son porque es "lo que todo el mundo está usando". Esto es muy muy visible en el mundo web, donde auténticas montañas de mierda de interfaces de usuario en Javascript reimplementan funcionalidad que ya existe con muhca más calidad, eficiencia, accesibilidad y velocidad en el propio navegador. Esto es muy típico hoy día y sólo puede haber sido perpetrado por idiotas o ignorantes.
Hoy día hay oleadas de jóvenes que no saben hacer una web sin javascript (ni siquiera saben a nivel abstracto lo que hay por debajo), lo cual no es triste, es sobre todo muy preocupante sobre la formación que se recibe.

Ignorancia: la causa base de las tres anteriores.

Si has picado Java, te sonará algo que vi en mi primer trabajo. Dos try kilométricos anidados :roto2: . Pasándose totalmente por el forro el hecho de que una excepción es muy barata de lanzar, pero carísima de capturar.

Otra que viví fue "solucionar" un problema de que el ejecutable era demasiado grande. ¿Solución? Marcar como inmutables toneladas de arrays hardcodeados que se usaban como fuente primaria de configuración.

Vamos, que como bien sabes no se trata tanto de hacer "virguerías" con el código sino de tener sentido crítico y agallas para defenderlo.


Una de las consecuencias finales es que los jefecillos que ya llevan años en esto han aprendido en la práctica que con esta forma de "funcionar" los proyectos mueren cada ciertos años por la absoluta imposibilidad de seguir manteniéndolos. No digamos ya hacer evolutivos. Con lo que sale a cuenta saltar a otro proyecto empezado desde cero.
A mí me gusta mucho la filosofía de diseño que sigue Rust por esto mismo: el compilador te obliga a hacer las cosas bien, lo cual actúa como filtro en muchos casos.
Título: Re:STEM
Publicado por: Benzino Napaloni en Junio 08, 2023, 09:51:17 am
A mí me gusta mucho la filosofía de diseño que sigue Rust por esto mismo: el compilador te obliga a hacer las cosas bien, lo cual actúa como filtro en muchos casos.

También por eso C++ es el rey de los lenguajes en su segmento de mercado, y (muy) difícilmente será desplazado por otro. Al menos no antes de mucho tiempo.

En C++ no hay más tu tía, no te queda otra que ser un programador prácticamente de primera para que no aparezcan luego fallos inexplicables.

Java en ese sentido es horroroso. Es el preferido de las cárnicas porque... con una "formación" acelerada ya se puede empezar a picar. Aunque el resultado funcione en el mejor de los casos a pedos. Kotlin ha corregido una parte de esa porquería eliminando bastante boilerplate.


Y sobre Kotlin, batallita que conozco de primera mano de cierta empresa de móviles sueca. Su nombre empieza por Eric :roto2: . Un día el jefe ordenó deshacer todas las migraciones a Kotlin y volver a Java "porque los juniors no pueden con este lenguaje tan complicado". Ni un mes después habían caído unas cuantas dimisiones.

Lo habitual es invertir lo mínimo, y reaccionar sólo después de haber probado a culpar a todos los machacas y haberse comido dimisiones en masa.
Título: Re:STEM
Publicado por: puede ser en Junio 08, 2023, 10:31:31 am
Pero el H2 proviene de energía renovable... (que había que almacenar para no perderla.) Y además, sólo es el primero.
Espero respuestas más elaboradas que una línea con lo primero que hayas oído por ahí.

El H2 hoy por hoy proviene del refinado del petróleo porque no hay actualmente técnicas de producción industrial que escalen de forma eficiente, con lo que la supuesta ventaja inicial ya no existe.

Además de eso, siguen sin resolverse toda la larga lista de problemas que tiene su almacenamiento y transporte. Entre otros muchos inconvenientes, el H2 tiende a corroerlo todo por su alta tendencia a reaccionar con básicamente todo. Mientras no se solucionen esos problemas a escala industrial (y se lleva años intentando), el H2 no vale.

Se ha hablado largo y tendido ya en este mismo hilo. Lo mínimo es saber lo que ya se ha hablado.
https://hidrogeno-verde.es/primera-instalacion-de-produccion-comercial-de-metanol-verde/

Maersk apuesta por convertir el hidrógeno (verde) en metanol (verde). Si sale bien seguirán en Galicia y Andalucía, como se habló.
Esto no tienen ninguna posibilidad de ser rentable. Ya estamos hablando de como mínimo tres procesos intermediarios de conversión de la energía original (petroleo -> hidrógeno -> metanol -> consumo) todos con unas pérdidas considerables por el camino. Saldrá una eficiencia parecida al coche de combustión (20-30%) pero con un proceso mucho más caro.
La idea es sacar el hidrógeno de energías renovables, e imagino que aprovechando las horas en que está es prácticamente gratis (noches con viento, tardes de fin de semana con sol...). El problema moral es que son las horas en que los usuarios normales podemos aprovechar tarifas bajas ( fines de semana...). Hay un peligro cierto de se estén privatizando beneficios y socializando gastos...
Título: Re:STEM
Publicado por: pollo en Junio 08, 2023, 10:34:59 am
A mí me gusta mucho la filosofía de diseño que sigue Rust por esto mismo: el compilador te obliga a hacer las cosas bien, lo cual actúa como filtro en muchos casos.

También por eso C++ es el rey de los lenguajes en su segmento de mercado, y (muy) difícilmente será desplazado por otro. Al menos no antes de mucho tiempo.

En C++ no hay más tu tía, no te queda otra que ser un programador prácticamente de primera para que no aparezcan luego fallos inexplicables.

Java en ese sentido es horroroso. Es el preferido de las cárnicas porque... con una "formación" acelerada ya se puede empezar a picar. Aunque el resultado funcione en el mejor de los casos a pedos. Kotlin ha corregido una parte de esa porquería eliminando bastante boilerplate.


Y sobre Kotlin, batallita que conozco de primera mano de cierta empresa de móviles sueca. Su nombre empieza por Eric :roto2: . Un día el jefe ordenó deshacer todas las migraciones a Kotlin y volver a Java "porque los juniors no pueden con este lenguaje tan complicado". Ni un mes después habían caído unas cuantas dimisiones.

Lo habitual es invertir lo mínimo, y reaccionar sólo después de haber probado a culpar a todos los machacas y haberse comido dimisiones en masa.
Rust va a acabar con C++ en todo nuevo desarrollo (los antiguos ya es otra historia, aunque en muchos casos se van poco a poco reescribiendo partes críticas), como denotan los movimientos de las grandes (Google, Amazon, Microsoft, etc.). Es absurdo no usarlo pudiendo hacerlo.

https://www.theregister.com/2023/04/27/microsoft_windows_rust/ (https://www.theregister.com/2023/04/27/microsoft_windows_rust/)
https://www.businessinsider.es/amazon-facebook-gusta-lenguaje-programacion-rust-804815 (https://www.businessinsider.es/amazon-facebook-gusta-lenguaje-programacion-rust-804815)

El problema es que incluso aunque seas un programador de primera, aparecen fallos inexplicables que en Rust no son posibles (salvo que optes por irte al "unsafe"). El primero de estos dos artículos es imprescindible, y es la explicación a la adopción en masa de Rust por parte de las grandes para todo lo que necesita bajo nivel, complejidad y alto rendimiento:
https://msrc.microsoft.com/blog/2019/07/we-need-a-safer-systems-programming-language/ (https://msrc.microsoft.com/blog/2019/07/we-need-a-safer-systems-programming-language/)
https://thenewstack.io/microsoft-rust-is-the-industrys-best-chance-at-safe-systems-programming/ (https://thenewstack.io/microsoft-rust-is-the-industrys-best-chance-at-safe-systems-programming/)


Es increíble que no se haya aplicado esto por defecto en muchos lenguajes (automatizar ciertas garantías directamente en el compilador). La gente que trabaja con él dice que si compila, es casi seguro que va a funcionar bien.

El hecho de que proporcione un mecanismo que hace imposibles las "race conditions" ya es de un valor incalculable. Conozco muchos casos (propios y de amigos y conocidos) de software interno de empresas con cuelgues inexplicables aleatorios que nadie, ni siquiera los más expertos y gurús del bajo nivel saben arreglar, y se tienen que quedar así.

El caso más llamativo fue para mí la reescritura del motor de CSS de Firefox. Los desarrolladores de Chromium (la base de Chrome) intentaron durante 3 años reescribir el motor de CSS del navegador, para que pudiese aprovechar las capacidades de concurrencia de los procesadores modernos. Tres intentos (uno por año) que fueron infructuosos, ya que en algún momento el programa se les colgaba (hacer concurrencia es notablemente difícil) y no tenían forma de razonar el porqué. Abandonaron el esfuerzo tras los fracasos y reconocer que era un problema demasiado difícil de resolver.

En cambio, la reescritura del motor de CSS de Firefox en paralelo (Stylo) se hizo en un año en Rust y funcionó a la primera, siendo de hecho el que está actualmente en uso en este navegador. Desde entonces Chromium abrió la puerta al uso de Rust en el proyecto, ya que de no hacerlo estarían limitándose.

Personalmente creo que C++ es un truño de proporciones cósmicas y que sólo se tolera porque hay mucho código escrito ya. Y sí, he usado C++ por desgracia. Hablo con conocimiento de causa.
Título: Re:STEM
Publicado por: sudden and sharp en Junio 08, 2023, 11:49:52 am
Pero el H2 proviene de energía renovable... (que había que almacenar para no perderla.) Y además, sólo es el primero.
Espero respuestas más elaboradas que una línea con lo primero que hayas oído por ahí.

El H2 hoy por hoy proviene del refinado del petróleo porque no hay actualmente técnicas de producción industrial que escalen de forma eficiente, con lo que la supuesta ventaja inicial ya no existe.

Además de eso, siguen sin resolverse toda la larga lista de problemas que tiene su almacenamiento y transporte. Entre otros muchos inconvenientes, el H2 tiende a corroerlo todo por su alta tendencia a reaccionar con básicamente todo. Mientras no se solucionen esos problemas a escala industrial (y se lleva años intentando), el H2 no vale.

Se ha hablado largo y tendido ya en este mismo hilo. Lo mínimo es saber lo que ya se ha hablado.
https://hidrogeno-verde.es/primera-instalacion-de-produccion-comercial-de-metanol-verde/ (https://hidrogeno-verde.es/primera-instalacion-de-produccion-comercial-de-metanol-verde/)

Maersk apuesta por convertir el hidrógeno (verde) en metanol (verde). Si sale bien seguirán en Galicia y Andalucía, como se habló.
Esto no tienen ninguna posibilidad de ser rentable. Ya estamos hablando de como mínimo tres procesos intermediarios de conversión de la energía original (petroleo -> hidrógeno -> metanol -> consumo) todos con unas pérdidas considerables por el camino. Saldrá una eficiencia parecida al coche de combustión (20-30%) pero con un proceso mucho más caro.


Bueno, ya se verá...


Citar
Las eléctricas presentan al hidrógeno verde se presenta como una alternativa "verde". Según Iberdrola, esta tecnología se basa en la generación de hidrógeno —un combustible universal, ligero y muy reactivo— a través de un proceso químico conocido como electrólisis. Este método utiliza la corriente eléctrica para separar el hidrógeno del oxígeno que hay en el agua, por lo que, si esa electricidad se obtiene de fuentes renovables, produciremos energía sin emitir dióxido de carbono a la atmósfera. Esta manera de obtener hidrógeno verde, como apunta la AIE, ahorraría los 830 millones de toneladas anuales de CO2 que se originan cuando este gas se produce mediante combustibles fósiles. Asimismo, reemplazar todo el hidrógeno gris mundial significaría 3.000 TWh renovables adicionales al año —similar a la demanda eléctrica actual en Europa—.

¿Qué es el hidrógeno verde con el que Extremadura pretende generar empleo?
https://www.elperiodicoextremadura.com/extremadura/2023/02/09/que-es-hidrogeno-verde-extremadura-81634218.html (https://www.elperiodicoextremadura.com/extremadura/2023/02/09/que-es-hidrogeno-verde-extremadura-81634218.html)




Extremadura producirá el 20% del hidrógeno verde del país
https://www.canalextremadura.es/noticias/extremadura/extremadura-producira-el-20-del-hidrogeno-verde-del-pais (https://www.canalextremadura.es/noticias/extremadura/extremadura-producira-el-20-del-hidrogeno-verde-del-pais)
La región pretende liderar el desarrollo de esta energía. En la hoja de ruta, la primera planta de hidrógeno verde que se va a instalar en Carmonita y que estará conectada al corredor que ha diseñado la Unión Europea

Citar
Extremadura va a ser clave para producir y mover el hidrógeno verde en España.  Una hoja de ruta que arranca con la primera planta de hidrógeno verde que se va a instalar cerca de Mérida, en Carmonita, y que estará conectada al corredor que ha diseñado la Unión Europea, el Corredor del hidrógeno H2MED. Está previsto que la primera fase que se construya en nuestro país sea la parte extremeña. 420 kilómetros que cruzarán de norte a sur la región. Se prevé su construcción en 2025 y 2026 para que comience a funcionar en 2027.




La eolica,  o la solar... también fueron un proyecto en su día.
Título: Re:STEM
Publicado por: sudden and sharp en Junio 08, 2023, 11:50:30 am
Bueno, depende de a qué juegos nos refiramos. Para los triple A, la inmensa mayoría. Pero todavía queda bastante gente que intenta hacer las cosas bien, específicamente en los desarrolladores independientes o hobbistas que pueden hacer las cosas a su manera.

Personalmente, creo (por lo que he podido ver) que estas ineficiencias, a veces muy graves, vienen de una mezcla entre pereza, codicia, moda e ignorancia.

Pereza, porque gente que sabe hacer las cosas bien tira con lo mínimo porque vende igual (y total, el hardware está "sobrado"). La realidad es que no, que es muy fácil hacer que el hardware se sature, muchas veces por efectos colaterales. Por ejemplo los arrays de estructuras propiciadas por la programación orientada a objetos son mucho más lentos en memoria que las estructuras de arrays (orientación a datos), por cómo funcionan las CPU y la memoria cache.

Codicia, porque a las compañías que ponen la pasta les importa cero hacer un truño con tal de vender.

Moda, porque no se atiende a criterios técnicos sino que se siguen las "buzzword" de moda por parte de la caterva directiva, que impone tecnologías sin ton ni son porque es "lo que todo el mundo está usando". Esto es muy muy visible en el mundo web, donde auténticas montañas de mierda de interfaces de usuario en Javascript reimplementan funcionalidad que ya existe con muhca más calidad, eficiencia, accesibilidad y velocidad en el propio navegador. Esto es muy típico hoy día y sólo puede haber sido perpetrado por idiotas o ignorantes.
Hoy día hay oleadas de jóvenes que no saben hacer una web sin javascript (ni siquiera saben a nivel abstracto lo que hay por debajo), lo cual no es triste, es sobre todo muy preocupante sobre la formación que se recibe.

Ignorancia: la causa base de las tres anteriores.

Si has picado Java, te sonará algo que vi en mi primer trabajo. Dos try kilométricos anidados :roto2: . Pasándose totalmente por el forro el hecho de que una excepción es muy barata de lanzar, pero carísima de capturar.

Otra que viví fue "solucionar" un problema de que el ejecutable era demasiado grande. ¿Solución? Marcar como inmutables toneladas de arrays hardcodeados que se usaban como fuente primaria de configuración.

Vamos, que como bien sabes no se trata tanto de hacer "virguerías" con el código sino de tener sentido crítico y agallas para defenderlo.


Una de las consecuencias finales es que los jefecillos que ya llevan años en esto han aprendido en la práctica que con esta forma de "funcionar" los proyectos mueren cada ciertos años por la absoluta imposibilidad de seguir manteniéndolos. No digamos ya hacer evolutivos. Con lo que sale a cuenta saltar a otro proyecto empezado desde cero.
A mí me gusta mucho la filosofía de diseño que sigue Rust por esto mismo: el compilador te obliga a hacer las cosas bien, lo cual actúa como filtro en muchos casos.

Yo me quedo con C. Llámame anacrónico.
Título: Re:STEM
Publicado por: pollo en Junio 08, 2023, 13:51:38 pm
Pero el H2 proviene de energía renovable... (que había que almacenar para no perderla.) Y además, sólo es el primero.
Espero respuestas más elaboradas que una línea con lo primero que hayas oído por ahí.

El H2 hoy por hoy proviene del refinado del petróleo porque no hay actualmente técnicas de producción industrial que escalen de forma eficiente, con lo que la supuesta ventaja inicial ya no existe.

Además de eso, siguen sin resolverse toda la larga lista de problemas que tiene su almacenamiento y transporte. Entre otros muchos inconvenientes, el H2 tiende a corroerlo todo por su alta tendencia a reaccionar con básicamente todo. Mientras no se solucionen esos problemas a escala industrial (y se lleva años intentando), el H2 no vale.

Se ha hablado largo y tendido ya en este mismo hilo. Lo mínimo es saber lo que ya se ha hablado.
https://hidrogeno-verde.es/primera-instalacion-de-produccion-comercial-de-metanol-verde/ (https://hidrogeno-verde.es/primera-instalacion-de-produccion-comercial-de-metanol-verde/)

Maersk apuesta por convertir el hidrógeno (verde) en metanol (verde). Si sale bien seguirán en Galicia y Andalucía, como se habló.
Esto no tienen ninguna posibilidad de ser rentable. Ya estamos hablando de como mínimo tres procesos intermediarios de conversión de la energía original (petroleo -> hidrógeno -> metanol -> consumo) todos con unas pérdidas considerables por el camino. Saldrá una eficiencia parecida al coche de combustión (20-30%) pero con un proceso mucho más caro.


Bueno, ya se verá...


Citar
Las eléctricas presentan al hidrógeno verde se presenta como una alternativa "verde". Según Iberdrola, esta tecnología se basa en la generación de hidrógeno —un combustible universal, ligero y muy reactivo— a través de un proceso químico conocido como electrólisis. Este método utiliza la corriente eléctrica para separar el hidrógeno del oxígeno que hay en el agua, por lo que, si esa electricidad se obtiene de fuentes renovables, produciremos energía sin emitir dióxido de carbono a la atmósfera. Esta manera de obtener hidrógeno verde, como apunta la AIE, ahorraría los 830 millones de toneladas anuales de CO2 que se originan cuando este gas se produce mediante combustibles fósiles. Asimismo, reemplazar todo el hidrógeno gris mundial significaría 3.000 TWh renovables adicionales al año —similar a la demanda eléctrica actual en Europa—.

¿Qué es el hidrógeno verde con el que Extremadura pretende generar empleo?
https://www.elperiodicoextremadura.com/extremadura/2023/02/09/que-es-hidrogeno-verde-extremadura-81634218.html (https://www.elperiodicoextremadura.com/extremadura/2023/02/09/que-es-hidrogeno-verde-extremadura-81634218.html)




Extremadura producirá el 20% del hidrógeno verde del país
https://www.canalextremadura.es/noticias/extremadura/extremadura-producira-el-20-del-hidrogeno-verde-del-pais (https://www.canalextremadura.es/noticias/extremadura/extremadura-producira-el-20-del-hidrogeno-verde-del-pais)
La región pretende liderar el desarrollo de esta energía. En la hoja de ruta, la primera planta de hidrógeno verde que se va a instalar en Carmonita y que estará conectada al corredor que ha diseñado la Unión Europea

Citar
Extremadura va a ser clave para producir y mover el hidrógeno verde en España.  Una hoja de ruta que arranca con la primera planta de hidrógeno verde que se va a instalar cerca de Mérida, en Carmonita, y que estará conectada al corredor que ha diseñado la Unión Europea, el Corredor del hidrógeno H2MED. Está previsto que la primera fase que se construya en nuestro país sea la parte extremeña. 420 kilómetros que cruzarán de norte a sur la región. Se prevé su construcción en 2025 y 2026 para que comience a funcionar en 2027.




La eolica,  o la solar... también fueron un proyecto en su día.
Hay razones físicas sólidas que desaconsejan tirar por este camino, así como el bioetanol y otros sinsentidos energéticos a poco que se echen cuentas.

El hidrógeno lleva en investigación tantos años o más que las renovables, pese a que a mucha gente le suene ahora porque se habla de él, y sigue teniendo demasiados problemas sin una solución, además de que las renovables son producción (permitiendo algunas producir in-situ) y el hidrógeno sólo es transporte, que está por ver si tiene siquiera sentido cuando se produzcan en masa baterías de nueva generación.

Ya de mano el hecho de que el artículo hable de "La región pretende liderar el desarrollo de esta energía" da a entender que no sabe de qué habla y de que se oyen campanas pero sin saber dónde.

El hidrógeno no es una energía. Sólo es un sustituto de unas baterías con la idea de que haga más fácil su transporte como si fuese gasolina o butano. La energía debe producirse en otro sitio.

En el ejemplo del tren, sustituir una catenaria por hidrógeno sólo tiene sentido si no se quiere invertir en infraestructura, que a la larga siempre será más barato, a costa de hacer mucho más caros los trenes y añadirles otros problemas.

Todo esto algunos llevamos años discutiéndolo en este y otros foros, ya en la época de Burbuja.
Título: Re:STEM
Publicado por: pollo en Junio 08, 2023, 14:07:25 pm
Bueno, depende de a qué juegos nos refiramos. Para los triple A, la inmensa mayoría. Pero todavía queda bastante gente que intenta hacer las cosas bien, específicamente en los desarrolladores independientes o hobbistas que pueden hacer las cosas a su manera.

Personalmente, creo (por lo que he podido ver) que estas ineficiencias, a veces muy graves, vienen de una mezcla entre pereza, codicia, moda e ignorancia.

Pereza, porque gente que sabe hacer las cosas bien tira con lo mínimo porque vende igual (y total, el hardware está "sobrado"). La realidad es que no, que es muy fácil hacer que el hardware se sature, muchas veces por efectos colaterales. Por ejemplo los arrays de estructuras propiciadas por la programación orientada a objetos son mucho más lentos en memoria que las estructuras de arrays (orientación a datos), por cómo funcionan las CPU y la memoria cache.

Codicia, porque a las compañías que ponen la pasta les importa cero hacer un truño con tal de vender.

Moda, porque no se atiende a criterios técnicos sino que se siguen las "buzzword" de moda por parte de la caterva directiva, que impone tecnologías sin ton ni son porque es "lo que todo el mundo está usando". Esto es muy muy visible en el mundo web, donde auténticas montañas de mierda de interfaces de usuario en Javascript reimplementan funcionalidad que ya existe con muhca más calidad, eficiencia, accesibilidad y velocidad en el propio navegador. Esto es muy típico hoy día y sólo puede haber sido perpetrado por idiotas o ignorantes.
Hoy día hay oleadas de jóvenes que no saben hacer una web sin javascript (ni siquiera saben a nivel abstracto lo que hay por debajo), lo cual no es triste, es sobre todo muy preocupante sobre la formación que se recibe.

Ignorancia: la causa base de las tres anteriores.

Si has picado Java, te sonará algo que vi en mi primer trabajo. Dos try kilométricos anidados :roto2: . Pasándose totalmente por el forro el hecho de que una excepción es muy barata de lanzar, pero carísima de capturar.

Otra que viví fue "solucionar" un problema de que el ejecutable era demasiado grande. ¿Solución? Marcar como inmutables toneladas de arrays hardcodeados que se usaban como fuente primaria de configuración.

Vamos, que como bien sabes no se trata tanto de hacer "virguerías" con el código sino de tener sentido crítico y agallas para defenderlo.


Una de las consecuencias finales es que los jefecillos que ya llevan años en esto han aprendido en la práctica que con esta forma de "funcionar" los proyectos mueren cada ciertos años por la absoluta imposibilidad de seguir manteniéndolos. No digamos ya hacer evolutivos. Con lo que sale a cuenta saltar a otro proyecto empezado desde cero.
A mí me gusta mucho la filosofía de diseño que sigue Rust por esto mismo: el compilador te obliga a hacer las cosas bien, lo cual actúa como filtro en muchos casos.

Yo me quedo con C. Llámame anacrónico.
C y C++ son los causantes de todas las vulnerabilidades que hay de bajo nivel, ya que no se usa otra cosa.

Para cosas aisladas de la red puede dar el pego, pero hoy día ninguna empresa grande (o proyecto de bajo nivel) si tiene elección va a perder la morteradísima de pasta y quebraderos de cabeza que supone el mantenimiento de C o C++ una vez hecho el desarrollo inicial.

Si se está adoptando por las grandes, e incluso Linus Torvalds lo ha admitido en el núcleo de Linux (cuando no ha admitido ninguna otra cosa hasta la fecha) es por algo.

Entre otras cosas, porque ningún programador o desarrollador es tan bueno o infalible como cree. Especialmente los que creen que lo son.

Es increíblemente ridículo y gracioso a partes iguales cómo los que predican la modernización y el avance de todo son extremadamente resistentes a una de las poquísimas innovaciones que realmente aportan algo en el mundo de los lenguajes, y que precisamente utiliza lo que siempre se anda cacareando por parte del colectivo: que un programa siempre va a ser mejor que un humano para tareas repetitivas, complejas y tediosas, como en este caso es administrar memoria y concurrencia sin cagarla inadvertidamente. Y todo esto lo consigue sin un runtime, sólo en tiempo de compilación.

En el paper de Microsoft al que alude uno de los enlaces que puse arriba (https://msrc.microsoft.com/blog/2019/07/we-need-a-safer-systems-programming-language/) se hace mención al hecho de que no importa la colonia que crean mear los desarrolladores estrella de ninguna de las grandes: el 80% de los bugs persistentes y vulnerabilidades en todo el código son problemas de memoria y concurrencia, de forma universal en todos los proyectos.

Esto indica que los desarrolladores estrellita teóricamente infalibles que saben más que nadie cometen una cantidad de fallos inconscientes que da miedo. cosa lógica por otra parte porque es algo demasiado complejo como para que no se escape ningún detalle, especialmente teniendo en cuenta la inmensa cantidad de arcanismo y normas no escritas que tienen C y C++.

Pero claro, el ego se ve resentido admitiendo esto, y no hay nada mejor que lo que ya conozco.
Título: Re:STEM
Publicado por: sudden and sharp en Junio 08, 2023, 15:46:11 pm
[...] Pero claro, el ego se ve resentido admitiendo esto, y no hay nada mejor que lo que ya conozco.





Un onanista elegiría siempre Perl... por puro hedonismo. Pero claro es read-only... como rust.





El problema son los plazos (los Gantt...) pero claro, los que no tenemos prisa, seguimos con C/C++ --este último con precaución--; al estilo de GNU (http://www.gnu.org)... el problema lo tenéis los profesionales. Los demás, no.

Pero sí, claro, si no te importa usar librería a ciegas... y hay que ganarse la vida... pues ya tienes el berenjenal de Windows. (Que si no me equivoco, yo en esto soy un aficionado, tiene a sus betatesters con un Windows _muy_ y con paquetes a la Debian. Para cada necesidad, su solución.)
Título: Re:STEM
Publicado por: sudden and sharp en Junio 08, 2023, 15:53:05 pm
write-only, quería decir.
Título: Re:STEM
Publicado por: el malo en Junio 08, 2023, 18:57:06 pm
Que sepáis que teniendo razón (que la tenéis), en el mundo de los resultados las cosas se ven de otra manera.

El técnico siempre tiende a la tecnología (o a lo nuevo, modernísimo, o a lo viejo, conocidísimo) pero muy pocas veces tiene visión comercial.

A mí que un sistema esté desarrollado en el demonizado Java (que os guste o no, funciona, y da menos quebraderos de cabeza que otras tecnologías más modernas y molonas) me parece bien mientras cumpla lo que tiene que hacer. No digo nada si nos metemos en empresas con entornos mucho más restrigidos, donde no dejan instalar nada que no lleve años en mercado por miedo a vulnerabilidades no descubiertas.

No me sirve de nada tener un Ferrari nuevo en el garaje si se pasa la mitad del tiempo en el taller. Si lo que necesito es ir de A a B todos los días, un viejo Toyota (Java) que no rompe motor me sirve más que de sobra. Si encima me lo puede mantener un desarrollador medio junior, pues miel sobre hojuelas.

Vosotros mejor que nadie sabéis que ahí fuera no son todo Metas y Googles, lo gordo de la informática son los millones de sistemas que hacen que la rueda siga girando (cuántos SAP de más de 20 años hay todavía por el mundo llevando las fábricas de muchas empresas del Fortune 500).

Que las nuevas tecnologías están muy bien, y se puden hacer cosas chulísimas y muy mantenibles y con pocos bugs.. pero es comparar  una escudería de F1 con una marca de coches generalista. Mercedes puede hacer un monoplaza que gane carreras o una Viano para el reparto. Decidme cuál de los dos vehículos "mueve el mundo" y pone el dinero en el bolsillo a fin de mes. Con la infomática, lo mismo.

Por cierto, como anécdota, la empresa de un amigo buscaba un desarrollador C para irse a Australia ganando 300,000 dólares australianos al año (casi 190.000 euros) y no fueron capaces de encontrar uno competente. Esto con Franco Java no pasaba.  :biggrin:
Título: Re:STEM
Publicado por: Benzino Napaloni en Junio 08, 2023, 20:42:30 pm
El técnico siempre tiende a la tecnología (o a lo nuevo, modernísimo, o a lo viejo, conocidísimo) pero muy pocas veces tiene visión comercial.

A mí que un sistema esté desarrollado en el demonizado Java (que os guste o no, funciona, y da menos quebraderos de cabeza que otras tecnologías más modernas y molonas) me parece bien mientras cumpla lo que tiene que hacer. No digo nada si nos metemos en empresas con entornos mucho más restrigidos, donde no dejan instalar nada que no lleve años en mercado por miedo a vulnerabilidades no descubiertas.

Bueno, algo aprendemos. Por lo menos, los Kotlineros entre los que me incluyo :biggrin: :troll: .

Kotlin se pensó desde el principio para ser compatible con Java. Era un must, porque si dices al que tiene un proyecto de no sé cuántas mil clases que hay que tirarlo a la basura y hacerlo nuevo, se ríe en tu cara o te calza un guantazo :roto2: .

Así, la migración es progresiva. Y sólo por el hecho de quitar verbosidad y mierda, queda un código mucho más legible, y por lo tanto más fácil de mantener. Que esto también es dinero y visión comercial. Claro que para llegar a verlo también hace falta sentido común.

Google lo adoptó en 2017, y ahora, seis años después, el chascarrillo entre los "machacas" es que Java es para la mierda que nadie quiere: mantener sistemas. Camino de ser otro COBOL, si es que no lo es ya. En las entrevistas de trabajo serias con Kotlin se pide Java por la única razón de saber bajar al barro si es necesario. Pero hay consenso en que lo nuevo hay que picarlo en Kotlin directamente, y pasar el mocho de vez en cuando para ir migrando lo que queda.

Kotlin tiene todo lo bueno de Java y eliminando mucho de lo malo.
Título: Re:STEM
Publicado por: pollo en Junio 08, 2023, 22:10:19 pm
Que sepáis que teniendo razón (que la tenéis), en el mundo de los resultados las cosas se ven de otra manera.

El técnico siempre tiende a la tecnología (o a lo nuevo, modernísimo, o a lo viejo, conocidísimo) pero muy pocas veces tiene visión comercial.

A mí que un sistema esté desarrollado en el demonizado Java (que os guste o no, funciona, y da menos quebraderos de cabeza que otras tecnologías más modernas y molonas) me parece bien mientras cumpla lo que tiene que hacer. No digo nada si nos metemos en empresas con entornos mucho más restrigidos, donde no dejan instalar nada que no lleve años en mercado por miedo a vulnerabilidades no descubiertas.

No me sirve de nada tener un Ferrari nuevo en el garaje si se pasa la mitad del tiempo en el taller. Si lo que necesito es ir de A a B todos los días, un viejo Toyota (Java) que no rompe motor me sirve más que de sobra. Si encima me lo puede mantener un desarrollador medio junior, pues miel sobre hojuelas.

Vosotros mejor que nadie sabéis que ahí fuera no son todo Metas y Googles, lo gordo de la informática son los millones de sistemas que hacen que la rueda siga girando (cuántos SAP de más de 20 años hay todavía por el mundo llevando las fábricas de muchas empresas del Fortune 500).

Que las nuevas tecnologías están muy bien, y se puden hacer cosas chulísimas y muy mantenibles y con pocos bugs.. pero es comparar  una escudería de F1 con una marca de coches generalista. Mercedes puede hacer un monoplaza que gane carreras o una Viano para el reparto. Decidme cuál de los dos vehículos "mueve el mundo" y pone el dinero en el bolsillo a fin de mes. Con la infomática, lo mismo.

Por cierto, como anécdota, la empresa de un amigo buscaba un desarrollador C para irse a Australia ganando 300,000 dólares australianos al año (casi 190.000 euros) y no fueron capaces de encontrar uno competente. Esto con Franco Java no pasaba.  :biggrin:
La comparación es absurda. La metáfora no se sostiene. La referencia a las grandes tecnológicas es sólo para indicar que en sitios donde tienen a gente muy competente se dan cuenta de los problemas reales de crear todo tipo de software de todas las escalas (en una empresa hay mucho más software internamente que el que se ofrece al público).

Rust no es un Ferrari, ni está diseñado para crear sólo Ferraris. Es un lenguaje open source creado por una gran comunidad de usuarios avanzados que de una puta vez corrige errores garrafales, inexplicables y absolutamente injustificables que se llevan arrastrando en los lenguajes de bajo nivel más populares (C pero sobre todo C++, que sería más cercano a su nicho), y lo hace además de forma que abarata costes, elimina clases enteras de bugs, hace más fácil la vida al que programa (por un montón de cosas demasiado extensas para mencionarlas aquí) y hace más sencillo razonar localmente sobre el código, lo cual es todo un win-win de unas proporciones muy fáciles de subestimar.

Cualquiera puede usarlo para proyectos grandes y pequeños. No tiene ni puto sentido decir que sólo aporta en grandes empresas. Los proyectos de empresas pequeñas pueden ser my complejos y grandes, y aún así no implica que no tenga sentido para proyectos pequeños o programación por hobby (especialmente si se defiende usar C o C++, para los que se podría argumentar exactamente lo mismo).

La filosofía es ser absolutamente explícito en todos los efectos, razonar de forma local en el código, y capturar todos los errores posibles durante la compilación. Esto es simplificando mucho. Es posible incluso hacer irrepresentables determinados errores.

No usarlo en proyectos que necesitarán mantenimiento es absurdo. No es que te importe que esté en Java porque haga lo que tenga que hacer, es que hoy por hoy sólo con los gastos que puede ahorrar es del género tonto ignorarlo si es una buena opción.

Los proyectos de software generan mucho más gasto y trabajo en la fase de mantenimiento que en la de creación. Haces una aplicación en Java (o en otras cosas), y ya de mano se te puede disparar el coste de servidores, puedes tener problemas de concurrencia (se te cuelga, te salen excepciones, etc.), el servidor puede tener picos de RAM, etc. Pero el problema real viene cuando hay que alterar el código para ampliar funcionalidad, corregir errores y otras tantas cosas que salen sobre la marcha.

Todo eso es pasta, tiempo y complejidad, que con el uso de un lenguaje como Rust y un poco de cabeza, simplemente desaparece, permitiendo centrarse en lo que de verdad importa: añadir funcionalidad al código sin romper el ya existente. Simplemente, da la sensación de que habláis sin conocimiento de causa. Mejor investigad y leed un poco sobre cómo funciona y lo que aporta antes de soltar la cuñadez típica "yo no necesito eso".

Si está reeemplazando muchos nuevos proyectos de bajo nivel a C++ (y el que da el salto no vuelve al masoquismo de C++) es por algo. Los principales promotores son los propios programadores.
Título: Re:STEM
Publicado por: pollo en Junio 09, 2023, 01:01:52 am
Para el que tenga curiosidad:


Rust for "modern" C++ devs
http://venge.net/graydon/talks/RustForModernCPPDevs.pdf (http://venge.net/graydon/talks/RustForModernCPPDevs.pdf)

Extractos interesantes:
Citar
What is good about Rust
• The main selling feature: Safety
Without performance overheads
• Rust mostly prevents several big, bad classes of bugs
• "Spatial" memory errors: out-of-bounds / wild / null pointers
• "Temporal" memory errors: use-before-init, use-after-free
• Multiple threads racing on same data
• Pretty much all UB

Many minor fixes that prevent ubiquitous C++ bugs:
• Can't write dangling-else, switch-case-fallthrough, or goto
• No silent int-float, signed-unsigned coercions
• Booleans, enums, integers, pointers not mixable
• Can't typo == as =
• Strings guaranteed UTF-8, no random access
• Culture of partial functions that return precise errors

 It also has great, very standardized tooling
• Configuration, building, testing
• Packages, dependencies
• Profiling, fuzzing
• Documentation, code-formatting
• A very good editor / IDE backend

• The compiler has fantastic diagnostics
• With standard, fine-grained control over checks
• The IDE often gives you a push-button fix
• You can opt-in to zillions of extras
• Everything is very documented


Main theme in design: better-behaved pointers
• Steep 60% part of Rust learning curve is internalizing pointer rules
• May seem arbitrary, tyrannical, cruel
• Really just formalize "safe version of C++ idioms"
• But no wiggle room: won't compile if violated
• Once reflexive, fairly smooth sailing
• Other 40% is much less steep, just "work"


C++ pointer-ish types have many ok-ish ingredients
• Owners: unique_ptr<T> and shared_ptr<T>
• Non-owning, transient refs: & and const&
• Owner/transient split has advantages
• Avoids most book-keeping, no tracing GC
• Faster, more deterministic behaviour

But C++ pointer-ish types let you do terrible things!
• const& can point to a mutable value, may change
• I guess it's cool that it stops you from mutating?
• & and const& can point to already-freed memory
• Or something half-initialized, or half-destructed
• Owner-pointers can be nullptr
• Threads can race on all of them

Rust prohibits all of this nonsense
• Eg. Box<T> is like unique_ptr<T> except
• Has no null value, always points to a T
• Is immutable if there's any live immutable &-reference
• Is inaccessible if there's any live mutable &mut-reference
• Can only move between variables, and not while &-referenced
• Thus two threads cannot race on it (more on this later)

Two main (weird) ingredients to the rules
• Move semantics
• Borrow checking
• These two ingredients reinforce each other remarkably well
• Commonly called Rust's "ownership system"

Borrow checking
This is maybe the strangest part
It's "borrow checking" time!

• Everything in Rust is default-immutable
• Mutability is opt-in with mut keyword, unlike C++ immutability opt-in const
• This is true about references too:
• C++ immutable const& is written as just plain & in Rust
• C++ mutable & is written as &mut in Rust
• Except, of course, that the rules are also somewhat different in Rust

Borrow checking enforces two main sets of rules
• "Referent outlives reference" / "lifetimes"
• To avoid dangling/wild pointers
• "Shared xor mutable" / "static reader-writer locking"
• To avoid invalidating one pointer by writing through another
• This is all static, compile-time checking, not runtime mechanisms

First set of rules: referent outlives reference
• Prevents borrows pointing at garbage memory
• You can only borrow something (form a & or &mut reference) if:
• The borrowed thing exists before the borrow starts
• The borrowed thing exists after the borrow is done

This is tracked through extra (static, compile-time) variables called "lifetimes"
• Often inferred / invisible, but sometimes written explicitly
• Written as a name with a leading single quote, after the ampersand
• Like &'a or &'some_lifetime mut
• It can help to give them informative names
• Unfortunately lots of times they get named 'a, 'b, 'c

This is weird and does not read like C++. It's new.
• Here's an example:
struct Foo<'a> {
   x: &'a i32,
   y: &'a mut i64
}
• Nobody likes how this reads and it never gets easier on the eyes

Second set of rules: shared xor mutable
• Means that any memory-write will not invalidate some other pointer
• Most important "at a distance" (other functions, other threads)
• Can even save you "up close" (same function and thread)
• Eg. borrow an enum (variant type) in case X, then set it to case Y, oops

Just getting program past borrow checker can be hard
• Surprising how many aliases were hiding in C++
• Eg. how every non-const method call can change members via this
• If you felt OOP was a little error-prone, now you know why
• Helps to only borrow specific fields, not self as a whole
• Helps to restrict to arg-passing and returns, not store & refs in structs

Título: Re:STEM
Publicado por: sudden and sharp en Junio 09, 2023, 10:03:09 am
Bueno, le he estado echando una ojeada... a Rust.


Es una reimplementación de todo. Desde la command-line hasta la paquetería de aplicaciones... muy del estilo de MS. (Demasiado tal vez.) No dudo que tenga sus ventajas... MS no suele trabajar mal precisamente.

Pero atención a la licencia: MIT (https://en.wikipedia.org/wiki/MIT_License) y Apache (https://en.wikipedia.org/wiki/Apache_License). (Que podrían valer...) pero que incluyen cosas como: LLVM (https://en.wikipedia.org/wiki/LLVM) o MSVC (https://en.wikipedia.org/wiki/Microsoft_Visual_C%2B%2B) (Ojo que esto último es "Microsoft Visual  C++"... vamos que no te libras de C++) y ...

... sabiendo del reciente soporte de Rust en el kernel Linux ... pues blanco, en botella, y etiquetado "MS".

En síntesis, un secuestro a mano armada de todo lo que era libre: gcc, g++, linux, dpkg... etc., para horientarlo en una dirección lo más lejana posible de la licencia GPL, ó LGPL.





----
MS sería una empresa genérica, no necesariamente en la que estás pensando.
Título: Re:STEM
Publicado por: el malo en Junio 09, 2023, 11:20:39 am
Que sepáis que teniendo razón (que la tenéis), en el mundo de los resultados las cosas se ven de otra manera.

El técnico siempre tiende a la tecnología (o a lo nuevo, modernísimo, o a lo viejo, conocidísimo) pero muy pocas veces tiene visión comercial.

A mí que un sistema esté desarrollado en el demonizado Java (que os guste o no, funciona, y da menos quebraderos de cabeza que otras tecnologías más modernas y molonas) me parece bien mientras cumpla lo que tiene que hacer. No digo nada si nos metemos en empresas con entornos mucho más restrigidos, donde no dejan instalar nada que no lleve años en mercado por miedo a vulnerabilidades no descubiertas.

No me sirve de nada tener un Ferrari nuevo en el garaje si se pasa la mitad del tiempo en el taller. Si lo que necesito es ir de A a B todos los días, un viejo Toyota (Java) que no rompe motor me sirve más que de sobra. Si encima me lo puede mantener un desarrollador medio junior, pues miel sobre hojuelas.

Vosotros mejor que nadie sabéis que ahí fuera no son todo Metas y Googles, lo gordo de la informática son los millones de sistemas que hacen que la rueda siga girando (cuántos SAP de más de 20 años hay todavía por el mundo llevando las fábricas de muchas empresas del Fortune 500).

Que las nuevas tecnologías están muy bien, y se puden hacer cosas chulísimas y muy mantenibles y con pocos bugs.. pero es comparar  una escudería de F1 con una marca de coches generalista. Mercedes puede hacer un monoplaza que gane carreras o una Viano para el reparto. Decidme cuál de los dos vehículos "mueve el mundo" y pone el dinero en el bolsillo a fin de mes. Con la infomática, lo mismo.

Por cierto, como anécdota, la empresa de un amigo buscaba un desarrollador C para irse a Australia ganando 300,000 dólares australianos al año (casi 190.000 euros) y no fueron capaces de encontrar uno competente. Esto con Franco Java no pasaba.  :biggrin:
La comparación es absurda. La metáfora no se sostiene. La referencia a las grandes tecnológicas es sólo para indicar que en sitios donde tienen a gente muy competente se dan cuenta de los problemas reales de crear todo tipo de software de todas las escalas (en una empresa hay mucho más software internamente que el que se ofrece al público).

Rust no es un Ferrari, ni está diseñado para crear sólo Ferraris. Es un lenguaje open source creado por una gran comunidad de usuarios avanzados que de una puta vez corrige errores garrafales, inexplicables y absolutamente injustificables que se llevan arrastrando en los lenguajes de bajo nivel más populares (C pero sobre todo C++, que sería más cercano a su nicho), y lo hace además de forma que abarata costes, elimina clases enteras de bugs, hace más fácil la vida al que programa (por un montón de cosas demasiado extensas para mencionarlas aquí) y hace más sencillo razonar localmente sobre el código, lo cual es todo un win-win de unas proporciones muy fáciles de subestimar.

Cualquiera puede usarlo para proyectos grandes y pequeños. No tiene ni puto sentido decir que sólo aporta en grandes empresas. Los proyectos de empresas pequeñas pueden ser my complejos y grandes, y aún así no implica que no tenga sentido para proyectos pequeños o programación por hobby (especialmente si se defiende usar C o C++, para los que se podría argumentar exactamente lo mismo).

La filosofía es ser absolutamente explícito en todos los efectos, razonar de forma local en el código, y capturar todos los errores posibles durante la compilación. Esto es simplificando mucho. Es posible incluso hacer irrepresentables determinados errores.

No usarlo en proyectos que necesitarán mantenimiento es absurdo. No es que te importe que esté en Java porque haga lo que tenga que hacer, es que hoy por hoy sólo con los gastos que puede ahorrar es del género tonto ignorarlo si es una buena opción.

Los proyectos de software generan mucho más gasto y trabajo en la fase de mantenimiento que en la de creación. Haces una aplicación en Java (o en otras cosas), y ya de mano se te puede disparar el coste de servidores, puedes tener problemas de concurrencia (se te cuelga, te salen excepciones, etc.), el servidor puede tener picos de RAM, etc. Pero el problema real viene cuando hay que alterar el código para ampliar funcionalidad, corregir errores y otras tantas cosas que salen sobre la marcha.

Todo eso es pasta, tiempo y complejidad, que con el uso de un lenguaje como Rust y un poco de cabeza, simplemente desaparece, permitiendo centrarse en lo que de verdad importa: añadir funcionalidad al código sin romper el ya existente. Simplemente, da la sensación de que habláis sin conocimiento de causa. Mejor investigad y leed un poco sobre cómo funciona y lo que aporta antes de soltar la cuñadez típica "yo no necesito eso".

Si está reeemplazando muchos nuevos proyectos de bajo nivel a C++ (y el que da el salto no vuelve al masoquismo de C++) es por algo. Los principales promotores son los propios programadores.

Creo que mi mensaje no se ha entendido. No hablo de Rust en concreto ni de ninguna otra tecnología en particular. Lo que digo es que el informático es un técnico que mira su parcela de trabajo desde una perspectiva muy concreta (la técnica) y no ve más alla (porque no se le paga para eso).

Decir que hablo sin conocimiento de causa es muy osado. Va a ser eso, que no conozco la industria ::)

A los informáticos se les suele "olvidar" que los sistemas nunca son un fin último, son herramientas. Y hay veces que por H o por B hay que usar una herramienta arcaica y oxidada, aunque el informático se empeñe en que lo mejor es usar el último rayo láser disponible.

El informático ve su parcela, su (o sus) sistemas. A mí me pagan para ver la foto completa. En una parte de esa foto tengo 54 sistemas de todas las edades, pelajes y equipos de soporte, todos integrados en la misma rueda. Un 70% de ellos son imprescindibles para la rueda siga girando y el otro 30% son eficiencias y nice-to-haves. Y repito, los sitemas son sólo parte de mi foto diaria.

¿que habría que cambiar ese sistema desarrollado en Java que fue desplegado en el 2000? Posiblemente. Pero ese sistema no me ha dado ni un problema en los últimos 5 años, y en la foto tengo otros 53, y algunos sí me dan auténticos dolores de cabeza. Porque al final, lo único que importa es que las herramientas hagan lo que tienen que hacer para que la empresa pueda vender, que es lo que realmente nos paga el sueldo a todos.

No hay nada más "de informático" que ir al jefe y decirle que el sistema que soporta en Java es arcaico y hay que cambiarlo. Y si no, se niega a seguir trabajando y se va. Luego el jefe me viene a mí y nos echamos unas risas mientras le digo que vaya buscando un reemplazo por si acaso. ¿Tiene razón el informático en el tema tecnológico? Sí. ¿Por qué no se hace lo que dice? Por lo que he explicado arriba. A veces explico el por qué, y a veces no, dependiendo del tiempo que tenga y de la confidencialidad del tema.

Claro que hay mucho jefe (intermedio y C-level) que se cree que sabe más que nadie y causa auténticos desastres. Yo tengo historias de terror para todos los gustos.
Lo que os garantizo es que un mundo liderado única y exclusivamente por técnicos, tendríamos unos sitemas robustísimos y perfectos.. y el triple de costes y una fracción de las ventas.
Título: Re:STEM
Publicado por: Benzino Napaloni en Junio 09, 2023, 13:28:38 pm
Los proyectos de software generan mucho más gasto y trabajo en la fase de mantenimiento que en la de creación. Haces una aplicación en Java (o en otras cosas), y ya de mano se te puede disparar el coste de servidores, puedes tener problemas de concurrencia (se te cuelga, te salen excepciones, etc.), el servidor puede tener picos de RAM, etc. Pero el problema real viene cuando hay que alterar el código para ampliar funcionalidad, corregir errores y otras tantas cosas que salen sobre la marcha.

Un proyecto bien gestionado se come en mantenimiento más de la mitad del gasto, durante todo su ciclo de vida.

Incluye, por supuesto, los evolutivos y los añadidos. No sólo el arreglo de los "estropiciamientos".

Imaginen cómo será el mal gestionado.
Título: Re:STEM
Publicado por: Benzino Napaloni en Junio 09, 2023, 13:43:26 pm
No hay nada más "de informático" que ir al jefe y decirle que el sistema que soporta en Java es arcaico y hay que cambiarlo. Y si no, se niega a seguir trabajando y se va. Luego el jefe me viene a mí y nos echamos unas risas mientras le digo que vaya buscando un reemplazo por si acaso. ¿Tiene razón el informático en el tema tecnológico? Sí. ¿Por qué no se hace lo que dice? Por lo que he explicado arriba. A veces explico el por qué, y a veces no, dependiendo del tiempo que tenga y de la confidencialidad del tema.

Bueno, esto no es del todo cierto. Anécdota mía, diré el pecado pero mantendré al pecador en el anonimato.

Hace ya unos cuantos años tuve un breve paso por una consultora. Al uso, del estilo de "aquí invertimos lo mínimo". Me cayó una pequeña bronca de mi entonces jefe por tratar de hacer algunas actualizaciones. Si es que a eso se le podía llamar actualización, porque ya iban cuatro años de retraso en comparación con el mercado. La razón que me dió, que eso forzaría a los clientes a hacer un esfuerzo que no querían.

El karma es muy cabrón. Dos años después, ya en diferentes empresas, a mí me tocó del lado de los que picábamos un SDK para terceros, y él estaba de ingeniero jefe en una aceleradora de apps. Subcontrata de subcontrata, un clásico. Pues resulta que uno de los requisitos que tenía implicaba actualizar una librería, y los cambios eran de los que llamamos "breaking". Hubo que hacer la migración por huevos y a todo correr.


Para un programador es un marrón no trabajar con material puesto al día. No aprendemos nada nuevo, y o se nos va el tiempo con lo que va saliendo, o tenemos que sacrificar nuestro tiempo libre para evitarlo. Obviamente no se trata de subirse al carro de cualquier novedad (porque además muchas "novedades" son la misma porquería con otro lazo, pero esto da para debate aparte). No le puedes decir a un ingeniero que se va a comer código antiguo sin darle un horizonte de migración o compensarlo de alguna manera.

Y luego, desde el punto de vista empresarial, hay que saber calibrar hasta qué punto se quieren congelar actualizaciones. Ya he visto unos cuantos proyectos que hubo que tirar a la basura, salía a más a cuenta que tratar de ponerle más parches al arlequín.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 09, 2023, 21:57:20 pm
Citar
Quantum Supremacy? Google Claims 70-Qubit Quantum Supercomputer (https://tech.slashdot.org/story/23/07/08/2340211/quantum-supremacy-google-claims-70-qubit-quantum-supercomputer)
Posted by EditorDavid on Sunday July 09, 2023 @03:34AM from the quantum-leaps dept.

Google says it would take the world's leading supercomputer more than 47 years to match the calculation speed of its newest quantum computer (https://www.telegraph.co.uk/business/2023/07/02/google-quantum-computer-breakthrough-instant-calculations/), reports the Telegraph:
Citar
Four years ago, Google claimed to be the first company to achieve "quantum supremacy" (https://www.telegraph.co.uk/technology/2019/10/24/inside-googles-quantum-lab-claims-historic-computing-breakthrough/) — a milestone point at which quantum computers surpass existing machines. This was challenged at the time by rivals, which argued that Google was exaggerating the difference between its machine and traditional supercomputers. The company's new paper — Phase Transition in Random Circuit Sampling (https://arxiv.org/abs/2304.11119) — published on the open access science website ArXiv, demonstrates a more powerful device that aims to end the debate.

While [Google's] 2019 machine had 53 qubits, the building blocks of quantum computers, the next generation device has 70. Adding more qubits improves a quantum computer's power exponentially, meaning the new machine is 241 million times more powerful than the 2019 machine...

Steve Brierley, the chief executive of Cambridge-based quantum company Riverlane, said: "This is a major milestone. The squabbling about whether we had reached, or indeed could reach, quantum supremacy is now resolved."
Thanks to long-time Slashdot reader schwit1 (https://slashdot.org/~schwit1) for sharing the article.
Saludos.
Título: Re:STEM
Publicado por: RAIORTEGA en Julio 13, 2023, 00:12:44 am
Hola compañeros transición ostras. Os comento: acude a mi localidad Juan Arnau a dar una charla bajo el título de "las ciencias y otras narraciones". Al parecer mi suegro es conocedor de su obra y me lo envía para q acuda a verlo. Y aunque tenía planes ese día dado que he pasado grandes temporadas de mi vida dedicado a la biologia, la fisica las matemáticas y la filosofía (y a leer este foro..tb Puedo decir q siempre fui muy fan de Nicholas Georgescu ) pues tanl vez este interesado.
Lo conocen? Charlatan o es una persona a escuchar? O dirá lo q todos en este foro ya sabemos?
A ver si me convenceis que el sábado tengo buceo y quiero aprovechar el dia


Enviado desde mi NTH-NX9 mediante Tapatalk

Título: Re:STEM
Publicado por: sudden and sharp en Julio 13, 2023, 23:42:04 pm
No lo conozco RAI, pero viendo esto:

https://es.wikipedia.org/wiki/Juan_Arnau (https://es.wikipedia.org/wiki/Juan_Arnau)




.... yo me pasaba a escucharle.   ;)
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 14, 2023, 19:18:56 pm
No lo conozco RAI, pero viendo esto:

https://es.wikipedia.org/wiki/Juan_Arnau (https://es.wikipedia.org/wiki/Juan_Arnau)




.... yo me pasaba a escucharle.   ;)
Estoy con sudden, probablemente merezca la pena.

(https://i.imgur.com/MDu4OP0.png)
https://twitter.com/Juan__Arnau/status/1676927518266228736

Saludos.

P.D.

El otro día, consultando la entrada de Juan Arnau en la Wikipedia, salté al artículo sobre el sánscrito (https://es.wikipedia.org/wiki/S%C3%A1nscrito) y me llamó la atención que palabras de uso más o menos común como: avatar, bandana, brahman, gurú, esvástica, karma, o yoga provegan directamente del sánscrito; pero es que, palabras de uso todavía más común como: añil, azúcar, azufre, azul, laca, lila, lima, limón e, incluso, naranja, procedan en última instancia también de dicho idioma.

Como se suele decir: a la cama no te irás sin saber una cosa más :)
Título: Re:STEM
Publicado por: RAIORTEGA en Julio 15, 2023, 23:29:05 pm
La charla bien. Este hombre sabe mucho pero me hizo un refrito extraño entre conspiranoia, teoría del conocimiento acercándose a posturas hinduistas y casi más ánimos ras y rechazando el macanicismo del galileo y descartes y finalmente rechazando kant q no me gustó demasiado. Por desgracia mi base de filosofía es baja y no pude mantener una ronda de preguntas al nivel q deseaba.

Enviado desde mi NTH-NX9 mediante Tapatalk

Título: Re:STEM
Publicado por: sudden and sharp en Julio 15, 2023, 23:41:09 pm
La charla bien. Este hombre sabe mucho pero me hizo un refrito extraño entre conspiranoia, teoría del conocimiento acercándose a posturas hinduistas y casi más ánimos ras y rechazando el macanicismo del galileo y descartes y finalmente rechazando kant q no me gustó demasiado. Por desgracia mi base de filosofía es baja y no pude mantener una ronda de preguntas al nivel q deseaba.

Enviado desde mi NTH-NX9 mediante Tapatalk


¿Tiene algo por escrito? Si no escribe... no creo que merzca la pena. Buscando... sí que tiene:

La Palabra Frente Al Vacio
https://budismolibre.org/docs/libros_budistas/Arnau_Juan%20_La_Palabra_Frente_Al_Vacio.pdf (https://budismolibre.org/docs/libros_budistas/Arnau_Juan%20_La_Palabra_Frente_Al_Vacio.pdf)

La fuga de Dios
https://www.elboomeran.com/upload/ficheros/obras/21_la_fuga_de_dios_issuu.pdf (https://www.elboomeran.com/upload/ficheros/obras/21_la_fuga_de_dios_issuu.pdf)

Entrevista con Juan Arnau: ?El único derecho del hombre es la búsqueda del
conocimiento?

https://www.estudioscontemplativos.com/entrevista-con-juan-arnau-el-unico-derecho-del-hombre-es-la-busqueda-del-conocimiento/?upm_export=pdf (https://www.estudioscontemplativos.com/entrevista-con-juan-arnau-el-unico-derecho-del-hombre-es-la-busqueda-del-conocimiento/?upm_export=pdf)

Parece suficiente para hacerse una idea. Interesante por ser otro punto de vista. Pero también mucho más difícil de entender, precisamente por eso. Puede que lea el primero... para ver com traduce.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 25, 2023, 07:43:12 am
Citar
Sixth 'Hutter Prize' Awarded for Achieving New Data Compression Milestone (https://hardware.slashdot.org/story/23/07/24/0215253/sixth-hutter-prize-awarded-for-achieving-new-data-compression-milestone)
Posted by EditorDavid on Sunday July 23, 2023 @10:19PM from the storage-units dept.

Since 2006, Slashdot has been covering a contest CmdrTaco once summarized as "Compress Wikipedia and Win (https://slashdot.org/story/06/08/13/200254/compress-wikipedia-and-win-ai-prize)." It rewards progress on compressing a 1-billion-character excerpt of Wikipedia — approximately the amount that a human can read in a lifetime.

And today a new record (https://twitter.com/mhutter42/status/1683141592033419267) was announced. The 1 billion characters have now been compressed to just 114,156,155 bytes — about 114 megabytes, or just 11.41% of the original size — by Saurabh Kumar (https://github.com/saurabhk/fast-cmix/blob/main/README.md), a New York-based quantitative developer for a high-frequency/algorithmic trading and financial services fund. The amount of each "Hutter Prize for Lossless Compression of Human Knowledge" increases based on how much compression is achieved (so if you compress the file x% better you receive x% of the prize). Kumar's compression was 1.04% smaller than the previous record, so they'll receive €5187.

But "The intention of this prize is to encourage development of intelligent compressors/programs as a path to AGI," said Marcus Hutter (now a senior researcher at Google DeepMind) in a 2020 interview with Lex Fridman (https://lexfridman.com/marcus-hutter/).

17 years after their original post (https://slashdot.org/story/06/08/13/200254/compress-wikipedia-and-win-ai-prize) announcing the competition, Baldrson (https://hardware.slashdot.org/~Baldrson) (Slashdot reader #78,598) returns to explain the contest's significance to AI research (https://slashdot.org/submission/17272802/saurabh-kumars-fast-cmix-wins-5187-hutter-prize-award), starting with a quote from mathematician Gregory Chaitin — that "Compression is comprehension."

But they emphasize that the contest also has one specific hardware constraint rooted in theories of AI optimization:
Citar
The Hutter Prize is geared toward research in that it restricts computation resources to the most general purpose hardware that is widely available. Why? As described by the seminal paper "The Hardware Lottery" by Sara Hooker (https://arxiv.org/abs/2009.06489), AI research is biased toward algorithms optimized for existing hardware infrastructure. While this hardware bias is justified for engineering (applying existing scientific understanding to the "utility function" of making money) to quote Sara Hooker, it "can delay research progress by casting successful ideas as failures."

The complaint that this is "mere" optimization ignores the fact that this was done on general purpose computation hardware, and is therefore in line with the spirit of Sara Hookers admonition to researchers in "The Hardware Lottery". By showing how to optimize within the constraint of general purpose computation, Saurabh's contribution may help point the way toward future directions in hardware architecture.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 28, 2023, 20:50:22 pm
Citar
Scientists Resurrected an Extinct Animal Frozen for 46,000 Years in Siberia ([url]https://science.slashdot.org/story/23/07/28/1242208/scientists-resurrected-an-extinct-animal-frozen-for-46000-years-in-siberia[/url])
Posted by msmash on Friday July 28, 2023 @12:40PM from the how-about-that dept.

Scientists have revived tiny animals called nematodes from a slumber that lasted 46,000 years, reports a new study. From a report:
Citar
The microscopic animals were successfully woken from a state of suspended animation ([url]https://www.vice.com/en/article/n7e397/scientists-resurrected-an-extinct-animal-frozen-for-46000-years-in-siberia[/url]) after researchers found them in the permafrost, or frozen soil, that flanks Siberia's northern Kolyma River. A radiocarbon analysis revealed that they hail from a prehistoric era when Neanderthals and dire wolves still roamed the world, and that they belong to a functionally extinct species called Panagrolaimus kolymaensis that was previously unknown to science.

The astonishing discovery is "important for the understanding of evolutionary processes because generation times could be stretched from days to millennia, and long-term survival of individuals of species can lead to the refoundation of otherwise extinct lineages," according to a study ([url]http://journals.plos.org/plosgenetics/article?id=10.1371/journal.pgen.1010798[/url]) published on Thursday in the journal PLoS Genetics. "Their evolution was literally suspended for 40k years," wrote Philipp Schiffer, an evolutionary biologist at the University of Cologne and a co-author of the study, in an email to Motherboard. "We are now comparing them to species from the same genus, which my team samples around the world," he continued, noting that he is currently conducting fieldwork in the Australian Outback. "Studying their genomes we hope to understand a lot about how these populations became different in the last 40k years.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Julio 29, 2023, 21:43:59 pm
Citar
NASA Funds Moon Projects to Help Astronauts 'Live off the Land' (https://science.slashdot.org/story/23/07/29/0516202/nasa-funds-moon-projects-to-help-astronauts-live-off-the-land)
Posted by EditorDavid on Saturday July 29, 2023 @02:34PM from the carry-moonbeams-home-in-a-jar dept.

"NASA took a significant step Tuesday toward allowing humans on the moon to 'live off the land,'" reports the Washington Post (https://www.msn.com/en-us/news/technology/nasa-funds-moon-projects-to-help-missions-to-live-off-the-land/ar-AA1elvfe).

NASA awarded several contracts (https://www.nasa.gov/press-release/nasa-partners-with-american-companies-on-key-moon-exploration-tech) "to build landing pads, roads and habitats on the lunar surface, use nuclear power for energy, and even lay a high-voltage power line over half a mile..."
Citar
Instead of going to the moon and returning home, as was done during the Apollo era of the 1960s and early '70s, NASA intends to build a sustainable presence focusing on the lunar South Pole, where there is water in the form of ice (https://www.washingtonpost.com/technology/2020/06/11/nasa-is-sending-rover-moon-prospect-water-help-astronauts-live-off-land/?itid=lk_inline_manual_7). The contracts awarded Tuesday are some of the first steps the agency is taking toward developing the technologies that would allow humans to live for extended periods of time on the moon and in deep space. Materials on the moon must be used to extract the necessities such as water, fuel and metal for construction, said Prasun Desai, NASA's acting associate administrator for space technology. "We're trying to start that technology development to make that a reality in the future," he said.

The largest award, $34.7 million, went to billionaire Jeff Bezos's Blue Origin space venture, which has been working on a project since 2021 called Blue Alchemist to build solar cells and transmission wire out of the moon's regolith — rocks and dirt. In a blog post this year, Blue Origin said it developed a reactor that reaches temperatures of nearly 3,000 degrees and uses an electrical current to separate iron, silicon and aluminum from oxygen in the regolith. The testing, using a lunar regolith simulant, has created silicon pure enough to make solar cells to be used on the lunar surface, the company said. [NASA says it could also be used to make wires.] The oxygen could be used for humans to breathe. "To make long-term presence on the moon viable, we need abundant electrical power," the company wrote in the post. "We can make power systems on the moon directly from materials that exist everywhere on the surface, without special substances brought from Earth."

The award is another indication that Blue Origin is trying to position itself as a key player in helping NASA build a permanent presence on and around the moon as part of the Artemis program... The company said it is developing a solar-powered storage tank to keep propellants at 20 degrees Kelvin, or about minus-423 degrees Fahrenheit, so spacecraft can refuel in space instead of returning to Earth between missions.
Other winners cited in the article:
  • Zeno Power, which "intends to use nuclear energy to provide power on the moon," received a $15 million contract (partnering with Blue Origin).
  • Astrobotic — which plans to launch a lander to the moon this year — got a $34.6 million contract "to build a power line that would transmit electricity from a lunar lander's solar arrays to a rover. It ultimately intends to build a larger power source using solar arrays on the moon's surface."
  • Redwire won a $12.9 million contract "to help build roads and landing pads on the moon. It would use a microwave emitter to melt the regolith and transform treacherous rocky landscapes into smooth, solid surfaces, said Mike Gold, Redwire's chief growth officer."
  • The technologies — which include in-space 3D printing — "will expand industry capabilities for a sustained human presence on the Moon," NASA said in a statement (https://www.nasa.gov/press-release/nasa-partners-with-american-companies-on-key-moon-exploration-tech).
The U.S. space agency will contribute a total of $150 million, with each company contributing at least 10-25% of the total cost (based on their size). "Partnering with the commercial space industry lets us at NASA harness the strength of American innovation and ingenuity," said NASA Administrator Bill Nelson. "The technologies that NASA is investing in today have the potential to be the foundation of future exploration."

"Our partnerships with industry could be a cornerstone of humanity's return to the Moon under Artemis," said acting associate administrator Desai. "By creating new opportunities for streamlined awards, we hope to push crucial technologies over the finish line so they can be used in future missions.

"These innovative partnerships will help advance capabilities that will enable sustainable exploration on the Moon."
Saludos.
Título: Re:STEM
Publicado por: puede ser en Agosto 01, 2023, 02:12:31 am
La charla bien. Este hombre sabe mucho pero me hizo un refrito extraño entre conspiranoia, teoría del conocimiento acercándose a posturas hinduistas y casi más ánimos ras y rechazando el macanicismo del galileo y descartes y finalmente rechazando kant q no me gustó demasiado. Por desgracia mi base de filosofía es baja y no pude mantener una ronda de preguntas al nivel q deseaba.

Enviado desde mi NTH-NX9 mediante Tapatalk

https://elpais.com/babelia/2023-07-31/william-blake-el-viajero-mental.html
Citar
William Blake, el viajero mental
Desde niño, el grabador londinense veía cosas que nadie era capaz de ver, y las plasmó en sus poemas y dibujos

Somos eternos vagabundos en la mente del mundo, cuyos confines desconocemos y cuyo torbellino cíclico nos impulsa. Una corriente presidida por la insustancialidad y fugacidad de las cosas, por la inestabilidad de emociones que oscilan como un péndulo. Una corriente estimulada por la oposición de contrarios que, como un resorte, mantiene viva la marcha del mundo. Donde hay goce habrá necesariamente dolor, donde hay tiempo habrá eternidad.

Si viviéramos en un universo artístico, el arte sería la forma más honda de conocimiento. Como vivimos en un universo mecánico, la máquina y su algoritmo son la forma más celebrada de la inteligencia. Ahora bien, si hemos de creer a algunos visionarios, el universo es una obra de arte. Y la mejor interpretación de una obra de arte, como decía el viejo Kant, es otra obra de arte. No entraremos aquí en la cuestión de si las críticas del filósofo de Königsberg son artísticas, lo que es indudable es que lo fueron los poemas y dibujos de un grabador londinense que, desde niño, veía cosas que nadie era capaz de ver.

William Blake es un genio extraño. ¿Cuál no lo es? Indómito y sencillo, orgulloso y desafiante. Su personalidad es tan compleja como sus cosmologías. A veces es un gnóstico, otras un brahmán o un budista. Lee la Biblia con la tenacidad del cabalista y extrae de ella lecturas inverosímiles. Llegado el momento, lamentará haber escuchado sólo a los ángeles y aprenderá la verdad de los demonios, depositarios de los instintos y las energías. El cielo es servidumbre y obediencia a la ley. El infierno, insurgencia y creación, genio poético. Sin ambas actitudes no habría evolución ni vida. Apolo y Dionisos. Blake anticipa a Nietzsche. También cuando habla de la muerte de dios. “Tú eres un hombre. Dios ya no existe / A tu propia Humanidad aprende a adorar”. Dios actúa y existe únicamente por intermedio de los seres vivos. Su dios no tiene otros poderes que los dones humanos más excelsos. Su dios es la imaginación que vive eternamente. Y la imaginación no es natural ni sobrenatural (se desmarca de deístas y clérigos), sino que ocupa el eje del mundo. De ella surge la naturaleza y surgen los dioses. Como en el sufismo (que Blake desconoce), la imaginación es un poder preternatural. Es la energía del origen y hacia ella se dirige el poeta.

Como todo buen poeta, Blake se encuentra cómodo en la contradicción. “Tus puertas del cielo son mis barreras del infierno”. La tensión de los opuestos es resorte e impulso del poema, como lo es del universo. Trampolín hacia lo incondicionado. La contradicción es una de las esencias del lenguaje. Por eso la lógica es chata y mojigata, por eso no alumbra. No así la poesía, que constantemente está dando a luz. Y el lenguaje de una y de otra no es, como creyó Heidegger, la casa del ser. Simplemente es un espectáculo para recrearse. Yeats decía que Blake, lo único que se tomaba literalmente, era su imaginación. Pero no era sólo suya, lo veremos, era universal. Esa era su seguridad y su osadía soberana. La imaginación como esencia del alma del mundo, de la que participa el alma individual. Pues imaginarlo todo es comprenderlo todo. Y comprenderlo todo, perdonarlo todo. Sólo la imaginación acaba conduciendo al amor y el perdón. Eckhart ya lo había advertido, los frutos de la contemplación deben resolverse en amor.

¿En qué consiste esa imaginación (se nos dirá) que es fundamento de todas las demás formas de conocimiento? Se podría decir que de cuatro cosas: percepción, memoria, intención y lenguaje. Y obsérvese que ninguna de las cuatro es un asunto individual, sino que todas ellas son cosas colectivas. La percepción no es una creación mía, sino algo que ocurre a través de mí. No podemos elegir lo que vemos al abrir los ojos o agudizar el oído. Lo mismo ocurre con el lenguaje que, como supo ver Heidegger, nos atraviesa y constituye. Venir al mundo es venir al lenguaje. Cada cultura con el suyo particular, con sus manías y caprichos, con sus certezas y dudas. ¿Y la memoria? La memoria es la hermana mayor de la intención. Queremos en función de lo que recordamos, ya sea consciente o inconscientemente. “Las hijas de la memoria devienen hijas de la inspiración”, escribe Blake en Milton. Y esa memoria es tan antigua como el mundo. En cierto sentido, es algo que hemos recibido (aunque nuestra propia vida la vaya configurando y afinando). Es una memoria genética y, además, dialogante. Una conversación ininterrumpida con todos esos seres con los que convivimos y que nos constituyen, con la memoria de virus, bacterias, alimentos y, por emanación, de amigos, familiares y conciudadanos, además de la memoria química de los fármacos (tan de actualidad). Todas esas memorias nos hacen ser lo que somos y deseamos. Como se ve, se trata de una memoria colectiva. No sólo social o históricamente, también biológica y químicamente.

'El número de la bestia es 666', acuarela de William Blake de 1805.
'El número de la bestia es 666', acuarela de William Blake de 1805.
INCAMERASTOCK / ALAMY
El individuo navega en esa corriente imaginativa, mental. En ella ha de orientarse y elegir rumbo. Esa es la aventura del deseo y la percepción. Y William Blake se muestra como un viajero mental audaz, extraordinario y deslumbrante. Hace con todas esas colectividades una alquimia particular. En ocasiones nos dice que él no ha elegido ese destino, que las visiones le atraviesan sin él quererlo y que una voz le dicta sus versos. Cualquiera que lea sus poemas comprobará que en ellos hay ambas cosas, voluntad y atención. Unas veces navega en empopada, con mar de fondo, otras, navega a contracorriente, utilizando la palanca del viento, y otras, las menos, navega a su pesar.

La Imaginación mayúscula
Si nos preguntamos cual es el fundamento del universo, si la razón o la imaginación, lo primero será averiguar cuál de las dos es más comprehensiva. Si la razón forma parte de la imaginación o a la inversa. Es decir, si la imaginación produce el pensamiento racional o es la razón la que, cuando afloja sus bridas, deja volar a la imaginación. Blake defiende la primera opción y, si se piensa detenidamente, advertimos que tiene razón. El fundamento del pensamiento racional es, como se sabe, el principio de identidad. Y, ¿dónde encontrar, en un mundo en el que todo cambia, algo idéntico a sí mismo? Esa identidad sólo puede habitar en el cielo platónico. Y los cielos, ya sean platónicos o mahometanos, son asunto de la imaginación.

La crítica de Blake a los racionalistas, como la de Nietzsche, se puede formular así: si haces de la razón un Mesías, si endiosas el pensamiento cuantitativo y objetivo, entonces no queda otra opción que enviar el deseo y las energías imaginativas al infierno (ese es el reproche que hace a Milton). Mientras que si consideras que el mundo de la razón (tan útil y práctico para el día a día), es una porción del mundo de la imaginación, un área incolora y abstracta (cuyos habitantes, de no escapar de vez en cuando, serán empujados a la furia y la tristeza), entonces todo parece encajar mucho mejor. Esta es la lógica de Blake, heredada de Berkeley, y en la que insistirá Coleridge. Una visión que anticipa el romanticismo (aunque éste acabe desviándose de lo esencial).

Hasta aquí estamos de acuerdo con Blake. Ahora bien, el londinense da un paso más allá, un paso, a nuestro entender, demasiado temperamental. El fondo de la naturaleza se encuentra gobernado por la Imaginación. Pero esa Imaginación mayúscula tiene poco que ver con lo que habitualmente entendemos por imaginación: la facundia para contar historias o la capacidad de representarnos lo fabuloso o lo ausente. Esa Imaginación mayúscula no tiene que ver con la fantasía, sino que es algo claro y perceptible en ciertos vislumbres. Y, lo más decisivo, se trata de algo inalterable. Es decir, la Imaginación mayúscula hace referencia a las imágenes eternas de las cosas. Esas imágenes serían los moldes de las cosas (rescatando así el realismo platónico). Chesterton acierta en el diagnóstico. “Es posible acabar con todos los leones de la tierra; pero resulta imposible destruir al León de Judah. El León de la Imaginación. Es posible sacrificar y comerse todos los corderos del mundo; pero resulta imposible sacrificar el Cordero de la Imaginación”. Las razones que lleva a Chesterton a rechazar la propuesta de Balke son diferentes de las mías. Volver a la teoría de los moldes eternos es otro modo de caer en la ilusión de la razón. Las nuevas identidades ya no son las de la lógica formal, sino las Imágenes eternas (análogas a los arquetipos del inconsciente colectivo de Jung). Y esa caída es resultado de una sobrevaloración de lo inmutable, frente a la existencia, fugaz y pasajera, del viajero mental que somos. El nuevo ídolo ahora es visible (para ciertas sensibilidades), pero no deja de ser un ídolo. Lo profético consiste precisamente en ver esas Imágenes eternas, esos moldes que determinan la vida de las personas y la historia de los pueblos.

Como todo buen poeta, Blake se encuentra cómodo en la contradicción. “Tus puertas del cielo son mis barreras del infierno”
Para Blake hay cuatro niveles imaginativos. El más bajo se entretiene con la abstracción matemática. Una especie de infierno antiimaginativo al que llama Ulro y donde se sitúa a Locke, Newton y todos los mecanicistas que han hundido el siglo en la oscuridad. Gentes sombrías, incapaces de percibir el mundo que les rodea, que se parecen a las rocas y los minerales. Por encima está el mundo de la imaginación cartesiana, en el que habita la mayoría, un mundo dual constituido por sujetos y objetos, al que llama Generación. Por encima hay dos mundos, donde objeto y sujeto se reunifican, llamados Edén y Beulah. El Jardín del Edén bíblico se identifica con Beulah, allí nos encontramos unidos a los objetos de un modo inocente y pueril, pasivo y dichoso. El Edén, sin embargo, es el estado más elevado de la Imaginación. Un estado activo, en el que la relación entre sujeto y objeto es la del creador y lo creado. De ahí que el amor y el arte sean las formas primordiales del conocimiento. Lo llamará la Nueva Jerusalén.

El modelo recuerda, en cierto sentido, el de las upaniṣad. Los llamados cuatro estados de conciencia. La conciencia de la vigilia, la del sueño con representaciones, la del sueño profundo y, finalmente, el cuarto estado, la conciencia del ātman. Según el modelo indio, el más exterior es el más superficial, mientras que los demás se encuentran por debajo como capas de una cebolla. El conocimiento consistirá en ir penetrando en estas capas hasta dar con el ātman. Frente a la postura de Blake, es posible proponer otra que donde se unifican el budismo y la Bhagavadgītā. El mundo que conocemos está hecho de cualidades mentales (colores, sonidos, palabras) y la mezcla de estas produce realidades siempre cambiantes, fugaces, sin una esencia y, en general, dolorosas. A esas cualidades podremos aplicar el aparato de la razón y ello nos dará importantes réditos, sobre todo en lo que respecta al dominio de la naturaleza y el desarrollo de la técnica (es lo que hemos hecho como civilización). Pero que lo hayamos hecho no nos obliga a hipostasiar esas realidades. Lo que llamamos materia sigue siendo una experiencia mental y cualitativa. Ahora bien, el sujeto que la experimenta no puede ser el ego (que está hecho de esas mismas cualidades, como todo lo natural), sino que, para ser un verdadero sujeto, debe ser algo no cualitativo. Ese sujeto, en la tradición védica, se llama puruṣa o ātman. Términos que podemos traducir como “conciencia” o “espíritu”. La conciencia, según esta perspectiva, es inmutable. Pero no por tener la solidez de una roca inamovible e inalterable, sino todo lo contrario, por carecer de contenido. ¿Cómo podría cambiar lo que está vacío? Esa es la admirable solución hindú al problema mente-cuerpo. Al carecer de contenido, la conciencia no es visible ni cuantificable. Es una identidad sin identidad. O mejor, una identidad que asume todas las identidades particulares de los seres. Y los hace creer que son ellos los que experimentan el mundo, cuando de hecho el sujeto de todas las experiencias es ella.

Pintura y metafísica
La apuesta metafísica de Blake guarda relación con su concepción del arte pictórico. Él mismo la menciona: “La Naturaleza no posee contornos, pero la imaginación sí.” La primera parte de la frase hace referencia a la concepción budista del origen condicionado de las cosas que, por ser dependientes, son vacías. La segunda, a una elección estética y filosófica. Respecto a la primera, reproduce el debate planteado por los primeros impresionistas. Hubo impresionistas radicales, como Claude Monet, que veían las cosas naturales sin contornos completamente delimitados, y los hubo moderados, como Edgar Degas, que prefirieron conservar las líneas en sus lienzos. Es la querella entre dibujar al óleo (que Blake detestaba) o utilizar la acuarela sobre un fondo de líneas previamente trazado (su propia técnica). Respecto a la cuestión filosófica, a Blake le interesa la línea porque permitía representar la “forma humana divina”, el cuerpo exento de ropajes y elementos superfluos, que es un cuerpo de Imaginación. El arte no debe imitar a la naturaleza, sino revelar las Formas eternas que subyacen a ella. Blake insistirá en que el hombre, como imagen de Dios, tiene derecho a imponer su forma sobre la naturaleza y servirse de ella (siguiendo la admonición del Génesis). Pero ello supone caer en el mismo colonialismo en el que cae el racionalista al imponer, de un modo más o menos violento, sus moldes a la naturaleza. Una coerción que, cuando es altamente energética, desata respuestas violentas. El modelo indio es, claro está, más contemplativo y menos coercitivo. Busca la liberación del espíritu, no el dominio de la naturaleza. Un espíritu que, de hecho, ya está liberado. Sólo hace falta darse cuenta.

Ilustración de William Blake para el 'Paraíso perdido' de John Milton.

Vida de un cockney
Pero vayamos a los detalles, que son la esencia de lo biográfico. William Blake viene al mundo en 1757, en Carnaby Market, un barrio de artesanos, carpinteros y orfebres (actual Soho). Estamos en el Londres de Dickens, una ciudad tumultuosa y precaria, con sus bajos fondos, pero también con el campo a la vuelta de la esquina. Es el segundo de los cinco hijos de un mercero relativamente próspero. De niño muestra un talento singular para el dibujo y sus padres deciden no enviarlo a la escuela. A la edad de diez años ingresa en una academia de dibujo y pasa la mayor parte del tiempo copiando estatuas griegas y romanas. A los 14, se inicia como aprendiz de grabador. Su maestro lo envía a dibujar a la Abadía de Westminster, donde nace su amor al gótico y los manuscritos medievales (modelo de sus propios libros ilustrados). Tras siete años de aprendizaje, abre su propio taller de grabador. Tras la muerte de su padre en 1784, toma a como aprendiz a su hermano menor Robert, por el que siente un gran afecto. Al cabo de dos años y medio, Robert muere con apenas veinte años. Blake contará que, en el momento de su muerte, ve ascender su espíritu a través del techo, dando palmas de alegría. Desde ese momento, Robert le acompañará siempre, escribe lo que le dicta y sigue sus consejos sobre nuevas técnicas de grabado.

Desde niño Blake ha tenido visiones y vive con intensidad el mundo de lo invisible. Como dice Patrick Harpur (en la espléndida edición de los Libros proféticos que acaba de reeditar Atalanta), “Blake siempre tuvo un pie en el Otro Mundo”. Asiste al entierro de un hada y, con nueve años, ve un árbol poblado de ángeles. Llegará a conversar con poetas difuntos y profetas antiguos. Las visiones incluyen un catálogo de catástrofes cósmicas, luchas y emanaciones de titanes, alumbramientos y extinciones prodigiosas. Muchas de ellas inspiradas en la Biblia, que será su libro de cabecera hasta el fin de sus días. “Del principio hasta el final, este libro santo desborda de imaginación”, escribe en sus comentarios a Berkeley. Aunque no frecuenta los lugares de culto, no es en absoluto un descreído y está muy lejos de ser un librepensador. Sus interpretaciones del libro sagrado son excéntricas, poco ortodoxas y fundamentalmente creativas.

Hasta los 32 años Blake no se ocupa de su propia obra. Trabaja para otros, sus clientes son bibliófilos pudientes y escritores deseosos de publicar sus obras, también afamados libreros de Londres, para quienes ilustra novelas y publicaciones periódicas. Lee con voracidad la literatura gnóstica y hermética. Reniega de las secretas blasfemias de hipócritas y fariseos, que obstruyen la luz divina que hay en el fondo de sus corazones. Su interpretación del mito cristiano es sonora y visual, una colección de poemas ilustrados. A pesar de la importancia que otorga al mensaje que debe trasmitir, siempre se sentirá un artista.

Tras una profunda decepción amorosa (debida a un ataque de celos), contrae matrimonio con Catherine Boucher. Una mujer enfermiza e iletrada, hija de un hortelano, por la que siente una gran ternura. Ella calmará sus fiebres cuando sea presa de la inspiración, quedándose a su lado hasta que remita el acceso. Será su compañera el resto de sus días. Blake enseña a Kate a leer, a escribir y a colorear sus grabados. Tras la muerte de su madre se instalan en Lambeth, al sur del Támesis, un barrio de la periferia rodeado de campos. Allí escribirá sus libros proféticos. El cuerpo es la apariencia externa del alma. No son realidades separadas. Clama contra la superchería clerical y la represión sexual. El alma sólo es violenta y rebelde cuando se la obstruye. Blake es especialmente sensible a los símbolos de la represión, pero su interés por la revolución social irá siendo desplazado por sus visiones de la revolución cósmica. Siente que debe crear su propia mitología, si no quiere ser esclavizado por la de otro. La exigencia es grande, pero ni se arredra ni le falta la energía. Se inspira en mitos bíblicos y de la antigua Britania, en las leyendas del Rey Arturo. Pero sus personajes no son de ficción, sino personas reales con las que mantiene una relación visionaria, dinámica y, en ocasiones, tempestuosa. El héroe de los libros proféticos se llama Los, y Jesús es su inspiración primordial, al que llama “la Imaginación”.

La crítica de Blake a los racionalistas se puede formular así: si haces de la razón un Mesías, entonces no queda otra opción que enviar el deseo y las energías imaginativas al infierno
En 1800, la precariedad económica le obliga a aceptar el ofrecimiento de un mecenas. William Hayley le ofrece una sencilla casa de campo en sus tierras de Felpham (Sussex), cerca del mar, donde tendrá trabajo como grabador de libros del gusto de su protector. En su retiro campestre empezará a escuchar el dictado de los autores eternos. Esas voces le permiten terminar su Milton, que sigue el patrón bíblico: creación, caída, redención y apocalipsis (frente al ciclo trinitario hindú: creación de Brahma, conservación de Viṣṇu y destrucción de Śiva). La belleza del paisaje se infiltra en sus poemas: flores, pájaros, insectos, y alguna que otra figura angélica que se le aparece en su jardín, como la de Ololon y o el propio Milton (confinado en su racionalismo).

En ese mismo jardín ocurrirá el incidente con un soldado borracho, autoritario y grosero, al que saca a empujones de su propiedad. El soldado lo denunciará, acusándolo de maldecir al rey (el delito de sedición acarrea la condena a muerte). Aunque sale libre de cargos, la inminencia del juicio lo angustia y le impide escribir. A los tres años la relación con Hayley se vuelve insostenible y regresa a Londres. Se instala en el 17 de South Molton Street, cerca de Hyde Park, donde concluye su último gran poema, Jerusalén.

En 1809 decide exponer sus cuadros en la mercería de su hermano. Es la primera vez que muestra al público su trabajo y escribe un Catálogo descriptivo donde deja constancia de sus preferencias artísticas (el óleo es una aberración, siendo la línea y la acuarela la esencia de la pintura). La exposición es un completo un fracaso. Casi nadie acude a verla, pero el panfleto llega a manos de Leigh Hunt, que escribe una devastadora crítica: “Fárrago de sinsentido, ininteligible, egregia vanidad, locas efusiones de un cerebro trastornado”. El ultraje lo hiere profundamente, lo que le lleva a renunciar a su carrera como pintor y poeta. No abandona su producción artística, pero la mantiene en secreto durante una década. Nunca se revolvería ante la indiferencia general hacia su obra. En 1819 se decide a publicar su gran poema épico, Jerusalén, animado por un grupo de jóvenes admiradores, que lo describen en su ancianidad como la personificación de la energía, un tipo libre, noble y feliz. Su legado filosófico y poético será recogido por Coleridge, Keats, Shelley, Yeats y Eliot, también por Carl Jung.

Blake no logró llevar a cabo sus teorías sexuales y sintió en ocasiones el matrimonio como una cárcel. Condenó el ascetismo y escandalizó a su mujer cuando intentó instaurar la poligamia en su casa, tomando una concubina. La insatisfacción erótica quizá le produjo depresiones y ataques de ira, que le enfrentaban a amigos y protectores. Pocos días antes del final, Blake dibuja un retrato de Kate y le confiesa que ha sido un ángel para él. Ya en el lecho de muerte, sus cantos hacen temblar la habitación. Canciones que exaltan lo divino y son, como fue en el origen, canciones de inocencia. Parece que con la muerte aguarda que se le abran, de manera definitiva (y no eventual, como ha ocurrido a lo largo de su vida), las puertas de la percepción.

Locura o rapto
El mejor análisis de la supuesta locura de William Blake se lo debemos a Chesterton, que conocía de primera mano algunas de las malas pasadas que puede jugar la mente. Permítanme que glose sus argumentos. Si por locura entendemos la incapacidad de cuidar de uno mismo o de la familia, de llevar un negocio o una profesión, Blake no estaba loco en absoluto. Fue un ciudadano como tantos otros (al margen de unos cuantos incidentes), que protegió y educó a su mujer, gestionó eficazmente su imprenta y que, a pesar de algunos momentos de crisis, funcionó como negocio hasta el final de sus días. Si analizamos sus cosmologías observamos que no son asistemáticas ni incoherentes. Ilustran el fuerte sentido lógico del irlandés (su padre probablemente lo fue) y manifiestan un esfuerzo sostenido por una narración ordenada, por muy llenas que estén de prodigios. La lógica es algo que hay que tener siempre en cuenta. Pero también, como se sabe, algo que hay que superar. El lógico irredento es un ingenuo.

'Satanás exultante sobre Eva', 1795, obra de William Blake.

Blake no poseía tara alguna y muchos de sus excelentes poemas confirman que conocía bien la tradición de la poesía inglesa y que había asimilado el genio de Shakespeare, Milton y Chaucer. Su vanidad fue la vanidad del niño, alegre y cambiante; no el orgullo encapsulado del maniaco. Cuando vivió en Felpham veía habitualmente ángeles colgados de los árboles y patriarcas hebreos paseando por las colinas. Esas visiones, para muchos, lo convierten en un loco o un embustero. “Pero llamar loco a un hombre porque ha visto fantasmas constituye un ejemplo de auténtica persecución religiosa. Supone negarle su entera dignidad de ciudadano simplemente por no coincidir la suya con nuestra teoría del universo”. Es cierto, sin embargo, que Blake comenzó a expresarse de manera cada vez más violenta. Llegando a predicar que el pecado es bueno, porque conduce al perdón. Pero sería injusto tachar esas ideas de locura. El carácter anárquico de Blake se encuentra relacionado con su inocencia. Es imprudente porque es puro, actitud que Chesterton asocia con los irlandeses, una cultura rica en santos y poetas. Pero había una parte de la mente de Blake que no era “suya”, que sobrevenía, que irrumpía con violencia en determinados momentos. “Esa parte demencial de él mismo no era Blake. Era esta una influencia ajena y en cierto sentido accidental”. Blake no era ningún irresponsable. Era sólido, de anchas espaldas, baja estatura y gran cabeza. Pero su cabeza era una bala explosiva, que desataba visiones y estallidos de ira. Chesterton utiliza una imagen poderosa: “Era un roble arraigado en Inglaterra, aunque un roble casi asfixiado por la hiedra”. La hiedra irregular crece por mis sienes, dijo una vez Octavio Paz a propósito de la India. Algo parecido pasaba en la mente de Blake. Algo en ella se había quebrado o agrietado. Y por esa rendija entraban voces y visiones. Y esa enajenación tenía algo de tiranía. Él mismo se quejaba de tener que escribir cosas que le eran dictadas, que sometían su voluntad y la rendían a una oscura obstinación, a repetir ciertos versos en poemas diferentes, sin que vinieran a cuento (o cuya ilación lógica resulta opaca), como si se tratara de exorcismos. Todo ello le hacía ser, en ocasiones, violento y temerariamente suspicaz. Chesterton, para concluir, se distancia de la crítica habitual a Blake. Se dice que sus visiones eran falsas, puesto que estaba loco. “Yo digo que estaba loco porque sus visiones eran auténticas”. Pero se trataba de una enajenación ocasional, como la de la fiebre o los psicodélicos. Cualquier persona puede tener una visión salvaje sin ser necesariamente loca.

El efecto Berkeley
Blake no es un romántico, aunque sea precursor del romanticismo. Bebe de tradiciones gnósticas, herméticas y neoplatónicas. Ha leído a Henry More y Robert Fludd, que han introducido en Inglaterra a Paracelso y Marsilio Ficino. Utiliza simbologías alquímicas, la androginia del Hombre original, el Herrero como símbolo de la actividad creadora, el valor simbólico de los números, la Piedra filosofal como transformación de la imperfección material en perfección espiritual. También conoce la primera traducción europea de la Bhagavadgītā, publicada por Charles Wilkins en 1785. De hecho, graba un dibujo del propio Wilkins conversando con los brahmanes, que no se ha conservado. La obra le permite entender la dinámica entre la mente cósmica y la humana, y le regala una idea: la naturaleza como velo de lo eterno. Su personaje Vala podría haberse originado tras su lectura. El ángel Vala simboliza el velo que impide el contacto con lo real, el velo de las cualidades, que son la “materia” del mundo natural. Esa idea, fundamental, proviene de Berkeley. Lo que llamamos mundo no es un entramado de seres o de cosas, sino un entramado de percepciones. El irlandés recupera una sensibilidad presocrática: todo percibe y siente. Y la encapsula en una fórmula filosófica: ser es percibir. Es posible interpretar esa filosofía al modo budista. No hace falta un Dios que sostenga al árbol con su percepción cuando nadie lo percibe. Lo están haciendo ya el viento, la tierra y el sol, que sienten su presencia y la acompañan. La percepción no es un asunto individual. Y los entresijos de la percepción pueden suscitar la sospecha de que alguien ve a través nuestro.

Se han conservado las anotaciones de Blake a Siris, una obra que debió fascinarle por el desafío radical que plantea. Lo que Berkeley afirma de Dios, Blake lo afirma de la Imaginación, que es el “Eterno Cuerpo Humano en Todo Hombre”. Ambos conocen la literatura hermética. Y ambos elaboran una enmienda a la totalidad del pensamiento cartesiano y de la concepción del espacio y el tiempo de Newton. Para Berkeley un espacio puro carece de sentido (curiosamente, para Descartes también). Es mejor utilizar la idea de Plotino del alma del mundo, de modo que el alma no está en el mundo sino el mundo en el alma (Leibniz reactivará esta idea). Hermes dice algo parecido en el Asclepio. A la pregunta por el lugar donde se mueve el universo, contesta que en la mente. En la mente del mundo. Esa mente puede entenderse como percepción, memoria, intención y lenguaje. Pero la apuesta newtoniana decidirá el destino de occidente, que pasará a vivir en la retícula, ordenada y absoluta, del espacio-tiempo. Nunca antes un axioma había tenido tanta influencia.

Berkeley rechaza la distinción de Locke entre cualidades primarias y secundarias. La materia es una experiencia mental, una sensación visual de color o táctil de dureza. Blake le sigue a la zaga e identifica “la longitud, la anchura y la altura” con la visión divina, que es un Cuerpo de Imaginación. El universo está hecho de cualidades mentales y, sólo de manera subsidiaria, de materia. La ridícula refutación de Johnson fue de hecho una confirmación. Se cuenta que Samuel Johnson refutó a Berkeley dando una patada a una piedra, lo que demostraría la realidad de la materia. Pero el dolor que experimentó confirmaría justamente lo contrario, que la piedra es una experiencia mental. En sus Bodas, Blake escribe: “El cuerpo es una porción de la mente (soul) percibido por los cinco sentidos, que son las puertas del alma en esta fase de la existencia”. Un modo de decir que el cuerpo es, en esencia, percepción.

Es interesante observar que William Jones, uno de los primeros sanscritistas ingleses, vio una conexión clara entre el pensamiento védico y el de Berkeley. La doctrina védica no niega la materia, su solidez, figura e impenetrabilidad, eso sería un disparate, sino que corrige la visión popular argumentando que todas esas cosas, solidez, figura e impenetrabilidad, forman parte de una experiencia mental, que existencia y perceptibilidad son intercambiables. El mundo se convierte así en un “muestrario de percepciones” y es más una actividad que algo hecho y consolidado.

Emanaciones
Para interpretar a Blake hay que evocar un pasado remoto, antiguo. La palabra clave de sus mitologías es “emanación”. Término acuñado por el egipcio Plotino y que da cuenta del obrar divino. Dios no crea, emana. Y lo que llamamos universo es la irradiación del amor divino. Frente a la creación, la emanación es más sutil y volátil, menos brusca, y subraya la continuidad entre la causa y el efecto (el efecto continúa siendo parte de la causa). Esa forma de relación no es sólo divina. Todos los seres emanan a su alrededor su esencia, como si fueran perfumes. Imitan la emanación primera, pero con menor intensidad. El fuego emana calor, pero también las personas o las plantas, por muy herméticas que sean, emiten vibraciones a quienes están próximos a ellas. De ahí que rodearse de amigos sea una fuente de salud. La emanación es emisión y desprendimiento. Por esa razón los seres más evolucionados y perfectos generen el ser. Esa es la magia de lo emanado, que hace emanar.

Blake no es un romántico, aunque sea precursor del romanticismo. Bebe de tradiciones gnósticas, herméticas y neoplatónicas
Nada de lo que vive lo hace aisladamente y por sí solo. “Si eres alimento de los gusanos, qué útil es tu papel, qué grande tu privilegio”. Todas las cosas llevan una corona que nadie puede quitarles. Blake insistirá en el valor infinito de las realidades más bajas. Ese valor viene precisamente de que son emanaciones divinas. Pero el mundo que avistan Locke y Newton es un mundo de sujetos y objetos, y contra esa ilusión se levanta nuestro poeta.

La emanación es la forma primera del amor. “¿Por qué el ojo se complace en el veneno de una sonrisa?” La oposición de los contrarios es sólo aparente. Sin ellos no habría cambios y el mundo quedaría estancado. Atracción y repulsión, bien y mal, amor y odio, son el motor de la existencia. El acceso de la humanidad a la libertad y el amor universal pasa por entender que la oposición entre el bien y el mal debe resolverse, mediante su conciliación, en la imaginación. Ese es el secreto del perdón. Para Blake, como para gran parte de la sabiduría perenne, todo lo que existe es santo. Todos los deseos y todas las pasiones, por aberrantes que sean, participan de esa luz de fondo que hay detrás de la existencia. De ahí su insurgencia frente al fanatismo cruel de las iglesias y los estados y su inversión de los valores. Satanás, que personifica la energía vital y el deseo, es ahora el Mesías; y Jehová, que representa el orden y la ley, la causa de todos los males. Estas potencias luchan por el dominio y sólo en la imaginación pueden reconciliarse y fundirse en el entusiasmo del amor. La tensión de los opuestos se resuelve en armonía en la mente poética o imaginativa. Una experiencia que los biógrafos sitúan durante su estancia en Felpham, donde sufrió en una crisis profunda. Ese ardor convocó la aparición de Milton y el coro de los ángeles que tocaban las trompetas del juicio final. La visión que le permitió recuperar la unidad en su alma. De nuevo, es la imaginación la que arranca a la humanidad de la muerte y la perdición.

El entusiasmo del amor es el secreto de la vida del espíritu. Al final de Jerusalén, Jesús dice a Albión (que representa a la humanidad): “No temas, a menos que yo muera, tú no podrás vivir” (un viejo tema de la cábala, el En-sof ha de ocultarse para que puedan vivir los hombres, los animales y las plantas). “Mas, si muero, resucitaré de nuevo y tú conmigo. Esa es la amistad y la fraternidad. Sin ella el hombre no existe”. “¿Acaso el hombre no puede vivir sin el misterio?”, pregunta Albión. Y Jesús responde con otra pregunta: “¿Amarías a uno que nunca murió por ti? Y si Dios no muriese por el hombre y no se diese a sí mismo eternamente por el hombre, el hombre no podría existir. El hombre es amor y Dios es amor. Toda bondad hacia otro es una pequeña muerte”.

De este modo el poeta cierra el ciclo de sus mitológicas. Lo que empezó siendo insurgencia y revolución de almas divididas y emanaciones en lucha, entreveradas por las ciegas pasiones, se resuelve en una mística del amor. Sólo cuando el hombre se perdona a sí mismo y a los demás, sin reservas, realiza plenamente su origen divino. Reproduciendo así el acto mismo de la creación, que es, al mismo tiempo, un morir y un acto de amor. Una emanación.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 02, 2023, 21:42:18 pm
https://www.expansion.com/economia/financial-times/2023/09/01/64f20e70e5fdea87208b45a7.html (https://www.expansion.com/economia/financial-times/2023/09/01/64f20e70e5fdea87208b45a7.html)

(https://i.imgur.com/jCDVkSN.jpg)

Allá por 1995 Neal Stephenson utilizó la idea de que en el futuro la creación de diamantes sintéticos sería algo habitual como base de una de sus novelas de ciencia ficción...

La era del diamante: manual ilustrado para jovencitas (https://es.wikipedia.org/wiki/La_era_del_diamante[)

(https://i.imgur.com/PByEWid.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 11, 2023, 07:32:06 am
Citar
To Build Their AI Tech, Microsoft and Google are Using a Lot of Water (https://news.slashdot.org/story/23/09/10/2033253/to-build-their-ai-tech-microsoft-and-google-are-using-a-lot-of-water)
Posted by EditorDavid on Sunday September 10, 2023 @04:59PM from the cool-it dept.

An anonymous Slashdot reader shares [ur=https://apnews.com/article/chatgpt-gpt4-iowa-ai-water-consumption-microsoft-f551fde98083d17a7e8d904f8be822c4l]this report from the Associated Press[/url]:
Citar
The cost of building an artificial intelligence product like ChatGPT can be hard to measure. But one thing Microsoft-backed OpenAI needed for its technology was plenty of water, pulled from the watershed of the Raccoon and Des Moines rivers in central Iowa to cool a powerful supercomputer as it helped teach its AI systems how to mimic human writing.

As they race to capitalize on a craze for generative AI, leading tech developers including Microsoft, OpenAI and Google have acknowledged that growing demand for their AI tools carries hefty costs, from expensive semiconductors to an increase in water consumption. But they're often secretive about the specifics. Few people in Iowa knew about its status as a birthplace of OpenAI's most advanced large language model, GPT-4, before a top Microsoft executive said in a speech it "was literally made next to cornfields west of Des Moines."

Building a large language model requires analyzing patterns across a huge trove of human-written text. All of that computing takes a lot of electricity and generates a lot of heat. To keep it cool on hot days, data centers need to pump in water — often to a cooling tower outside its warehouse-sized buildings. In its latest environmental report (https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RW15mgm), Microsoft disclosed that its global water consumption spiked 34% from 2021 to 2022 (to nearly 1.7 billion gallons, or more than 2,500 Olympic-sized swimming pools), a sharp increase compared to previous years that outside researchers tie to its AI research. "It's fair to say the majority of the growth is due to AI," including "its heavy investment in generative AI and partnership with OpenAI," said Shaolei Ren, a researcher at the University of California, Riverside who has been trying to calculate the environmental impact of generative AI products such as ChatGPT. In a paper due to be published later this year, Ren's team estimates ChatGPT gulps up 500 milliliters of water (close to what's in a 16-ounce water bottle) every time you ask it a series of between 5 to 50 prompts or questions...

Google reported a 20% growth in water use in the same period, which Ren also largely attributes to its AI work.
OpenAI and Microsoft both said they were working on improving "efficiencies" of their AI model-training.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Septiembre 15, 2023, 08:29:52 am
Citar
Tesla Reinvents Carmaking With Quiet Breakthrough (https://tech.slashdot.org/story/23/09/14/2129215/tesla-reinvents-carmaking-with-quiet-breakthrough)
Posted by BeauHD on Thursday September 14, 2023 @06:30PM from the no-easy-feat dept.

An anonymous reader quotes a report from Reuters:
Citar
Tesla has combined a series of innovations to make a technological breakthrough (https://www.reuters.com/technology/gigacasting-20-tesla-reinvents-carmaking-with-quiet-breakthrough-2023-09-14/) that could transform the way it makes electric vehicles and help Elon Musk achieve his aim of halving production costs, five people familiar with the move said. The company pioneered the use of huge presses with 6,000 to 9,000 tons of clamping pressure to mold the front and rear structures of its Model Y in a "gigacasting" process that slashed production costs and left rivals scrambling to catch up. In a bid to extend its lead, Tesla is closing in on an innovation that would allow it to die cast nearly all the complex underbody of an EV in one piece, rather than about 400 parts in a conventional car, the people said.

The know-how is core to Tesla's "unboxed" manufacturing strategy unveiled by Chief Executive Musk in March, a linchpin of his plan to churn out tens of millions of cheaper EVs in the coming decade, and still make a profit, the sources said. While Tesla has said its unboxed model involves producing large sub-assemblies of a car at the same time and then snapping them together, the size and make-up of the modular blocks is still the subject of speculation. Two of the sources said Tesla's previously unreported new design and manufacturing techniques meant the company could develop a car from the ground up in 18 to 24 months, while most rivals can currently take anywhere from three to four years.

The five people said a single large frame -- combining the front and rear sections with the middle underbody where the battery is housed -- could be used in Tesla's small EV which it aims to launch with a price tag of $25,000 by the middle of the decade. Tesla was expected to make a decision on whether to die cast the platform in one piece as soon as this month, three of the sources said, though even if they do press ahead the end product could change during the design validation process. The breakthrough Tesla has made centers on the how the giant molds for such a large part are designed and tested for mass production, and how casts can incorporate hollow subframes with internal ribs to cut weight and boost crashworthiness.
To overcome the obstacles associated with this manufacturing technique, Tesla is collaborating with firms that use 3D printing technology to create sand molds for casting, which is cost-effective and allows for rapid design iterations. The sand casting process significantly reduces design cycle times compared to traditional metal mold prototypes.

Tesla also plans to use solid sand cores within the molds to create hollow subframes, addressing weight and crashworthiness concerns. However, there is still a decision to be made regarding the type of press to use for casting large body parts, with trade-offs between productivity and quality.
Saludos.
Título: Re:STEM
Publicado por: Saturio en Septiembre 15, 2023, 12:01:51 pm
Citar
Tesla Reinvents Carmaking With Quiet Breakthrough (https://tech.slashdot.org/story/23/09/14/2129215/tesla-reinvents-carmaking-with-quiet-breakthrough)
Posted by BeauHD on Thursday September 14, 2023 @06:30PM from the no-easy-feat dept.

An anonymous reader quotes a report from Reuters:
Citar
Tesla has combined a series of innovations to make a technological breakthrough (https://www.reuters.com/technology/gigacasting-20-tesla-reinvents-carmaking-with-quiet-breakthrough-2023-09-14/) that could transform the way it makes electric vehicles and help Elon Musk achieve his aim of halving production costs, five people familiar with the move said. The company pioneered the use of huge presses with 6,000 to 9,000 tons of clamping pressure to mold the front and rear structures of its Model Y in a "gigacasting" process that slashed production costs and left rivals scrambling to catch up. In a bid to extend its lead, Tesla is closing in on an innovation that would allow it to die cast nearly all the complex underbody of an EV in one piece, rather than about 400 parts in a conventional car, the people said.

The know-how is core to Tesla's "unboxed" manufacturing strategy unveiled by Chief Executive Musk in March, a linchpin of his plan to churn out tens of millions of cheaper EVs in the coming decade, and still make a profit, the sources said. While Tesla has said its unboxed model involves producing large sub-assemblies of a car at the same time and then snapping them together, the size and make-up of the modular blocks is still the subject of speculation. Two of the sources said Tesla's previously unreported new design and manufacturing techniques meant the company could develop a car from the ground up in 18 to 24 months, while most rivals can currently take anywhere from three to four years.

The five people said a single large frame -- combining the front and rear sections with the middle underbody where the battery is housed -- could be used in Tesla's small EV which it aims to launch with a price tag of $25,000 by the middle of the decade. Tesla was expected to make a decision on whether to die cast the platform in one piece as soon as this month, three of the sources said, though even if they do press ahead the end product could change during the design validation process. The breakthrough Tesla has made centers on the how the giant molds for such a large part are designed and tested for mass production, and how casts can incorporate hollow subframes with internal ribs to cut weight and boost crashworthiness.
To overcome the obstacles associated with this manufacturing technique, Tesla is collaborating with firms that use 3D printing technology to create sand molds for casting, which is cost-effective and allows for rapid design iterations. The sand casting process significantly reduces design cycle times compared to traditional metal mold prototypes.

Tesla also plans to use solid sand cores within the molds to create hollow subframes, addressing weight and crashworthiness concerns. However, there is still a decision to be made regarding the type of press to use for casting large body parts, with trade-offs between productivity and quality.
Saludos.

Os paso el contacto por si queréis compraros una de esas revolucionarias gigaprensas. Hay que fijarse en los colorcitos de la banderita. Tecnología Italiana.

https://idragroup.com/en/gigapress (https://idragroup.com/en/gigapress)


Por cierto, IDRA, una de esas empresas que no van de molonas pero que son la espina dorsal de la industria europea. 180 empleados dicen que tienen. No creo que tengan sala de meditación ni mesa de ping-pong.

Pero quién quiere trabajar diseñando y fabricando prensas cuando puedes disromper a diestro y siniestro.


Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 01, 2023, 08:26:40 am
(https://i.imgur.com/KYDfCOZ.jpg) (https://www.youtube.com/watch?v=K1IZur5nkN4)
José Luis Cava | El Uranio ha iniciado un ciclo alcista. 30/9/23 (https://www.youtube.com/watch?v=K1IZur5nkN4)

Citar
Microsoft Needs So Much Power to Train AI That It's Considering Small Nuclear Reactors (https://hardware.slashdot.org/story/23/09/30/2130220/microsoft-needs-so-much-power-to-train-ai-that-its-considering-small-nuclear-reactors)
Posted by EditorDavid on Saturday September 30, 2023 @11:34PM from the seeking-a-reaction dept.

An anonymous reader shares this report from Futurism (https://futurism.com/the-byte/microsoft-power-train-ai-small-nuclear-reactors):
Citar
Training large language models is an incredibly power-intensive process (https://futurism.com/the-byte/chatgpt-costs-openai-every-day) that has an immense carbon footprint. Keeping data centers running requires a ludicrous amount of electricity that could generate substantial amounts of greenhouse emissions — depending, of course, on the energy's source. Now, the Verge reports (https://www.theverge.com/2023/9/26/23889956/microsoft-next-generation-nuclear-energy-smr-job-hiring), Microsoft is betting so big on AI that its pushing forward with a plan to power them using nuclear reactors. Yes, you read that right; a recent job listing (https://jobs.careers.microsoft.com/global/en/job/1627555/Principal-Program-Manager-Nuclear-Technology) suggests the company is planning to grow its energy infrastructure with the use of small modular reactors (SMR)...

But before Microsoft can start relying on nuclear power to train its AIs, it'll have plenty of other hurdles to overcome. For one, it'll have to source a working SMR design. Then, it'll have to figure out how to get its hands on a highly enriched uranium fuel that these small reactors typically require, as The Verge points out. Finally, it'll need to figure out a way to store all of that nuclear waste long term...

Other than nuclear fission, Microsoft is also investing (https://www.cnbc.com/2023/05/10/microsoft-agrees-to-buy-power-from-sam-altman-backed-helion-in-2028.html) in nuclear fusion, a far more ambitious endeavor, given the many decades of research (https://futurism.com/fusion-scientists-net-energy-gain) that have yet to lead to a practical power system. Nevertheless, the company signed a power purchase agreement (https://www.cnbc.com/2023/05/10/microsoft-agrees-to-buy-power-from-sam-altman-backed-helion-in-2028.html) with Helion, a fusion startup founded by OpenAI CEO Sam Altman earlier this year, with the hopes of buying electricity from it as soon as 2028.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 01, 2023, 08:52:39 am
https://elpais.com/babelia/2023-09-30/elon-musk-el-guardian-de-la-mazmorra.html

(https://i.imgur.com/OpQUrnj.jpg)

Saludos.
Título: Re:STEM
Publicado por: saturno en Octubre 02, 2023, 08:34:59 am
La antimateria del experimento Alpha-G del Cern está sometida a la gravedad. Confirmado-

https://physics.aps.org/articles/v16/167 (https://physics.aps.org/articles/v16/167)

Citar
Antimatter Feels Gravity Just like Matter
September 27, 2023• Physics 16, 167
The first direct observations of antihydrogen atoms falling in Earth’s gravity show that they experience gravity in the same way as ordinary matter does.
Figure caption


Throw a ball into the air and the pull of Earth’s gravity will bring it crashing back down. But what about a ball of antimatter? Will it fall in the same way, or does it somehow experience gravity differently? Physicists have been exploring such questions for nearly a century but, until now, there had been no direct experimental test of antimatter in free fall. Releasing the results of observations of free-falling antihydrogen atoms, the Antihydrogen Laser Physics Apparatus (ALPHA) Collaboration at CERN in Switzerland shows that the particles experience the same gravitational pull as ordinary matter as they accelerate to Earth [1]. The collaboration says that the experiments are a landmark test of the weak equivalence principle, which states that all types of mass should react equivalently to the force of gravity.

“There’s no theoretical reason to expect [antimatter] to do anything else but fall with a regular acceleration,” says Holger Müller, a physicist at the University of California, Berkeley, who was not involved in the study. Still, he is pleased to see the expectation confirmed. “There is just no substitute for direct observation,” he says.

Antihydrogen is composed of one antiproton and one positron—the antiparticle of an electron—making it the simplest neutrally charged antimatter atom. As such, it is an ideal system for probing gravity, as other forces can be ignored: if the researchers had instead used a charged particle, for example, electric forces would have come into play and—because they are stronger—would have overpowered gravity’s pull. “Making a gravity measurement, you’re just overwhelmed by a bunch of forces you can’t control,” says Will Bertsche, a physicist at the University of Manchester, UK, and a member of the ALPHA Collaboration. “You need some antimatter that is neutral.”

At the center of the ALPHA-g setup used for the free-fall experiments sits a magnetic trap composed of a superconducting magnet, which generates a magnetic field in the radial direction, and two electromagnetic magnets, called mirror coils, which generate fields in the vertical direction. These three magnets are aligned such that they trap antihydrogen atoms at 0.5 K between the two mirror coils. Detectors designed to reconstruct particle trajectories surround the trap.

In order to subject the trapped antihydrogen atoms to gravity, the researchers weakened the magnetic fields holding them in place over a period of 20 seconds. As that happened, the antihydrogen atoms, which were jumping around inside the trap, streamed out of the device, moving both up and down. The team then detected the antiparticles through the energy released when they annihilated with matter particles.

Because gravity is such a weak force, some of the antihydrogen atoms that initially move up when released should continue to rise, just like baseballs thrown into the air, which the collaboration sees in its results. But the researchers also find that more antihydrogen atoms exit from the bottom of the trap, the expected result if gravity’s effect on antimatter and ordinary matter is the same. Statistical analysis of the observations put the gravitational acceleration of the antimatter particle to be within one standard deviation of that of ordinary matter.

While previous experiments performed by others have explored antimatter’s interaction with gravity, those tests were all indirect. “It was just thrilling to see that the predictions that we had made, in some cases a decade earlier, actually turned out to be true,” says Joel Fajans, a physicist at the University of California, Berkeley, and a member of the ALPHA Collaboration. Müller agrees. “Finally, this [experiment] has happened,” he says. “I’m just happy that this [result] exists.”

Now that the collaboration has confirmed that the experiments work, the researchers plan to upgrade their setup before running further measurements. They also plan to develop computer simulations that better predict the behavior of antimatter atoms exposed to gravity. With both advances in place, the hope is that the ALPHA team will reach its ultimate goal—obtaining the first precise measurement of the weight of an antimatter atom. Time will tell.

–Allison Gasparini

Allison Gasparini is a freelance science writer based in Santa Cruz, CA.


References

    E. K. Anderson et al., “Observation of the effect of gravity on the motion of antimatter,” Nature 621, 716 (2023).
[url]http://dx.doi.org/10.1038/s41586-023-06527-1[/url] ([url]http://dx.doi.org/10.1038/s41586-023-06527-1[/url])



En v/fr,  video de JP Petit afirmando ese resultado  ( 22 mn 38s )
https://www.youtube.com/watch?v=RXKONGBClY0&t=1355s (https://www.youtube.com/watch?v=RXKONGBClY0&t=1355s)

XGracias Sifar (http://www.bulle-immobiliere.org/forum/viewtopic.php?f=206&t=95214&p=2726094#p2726094)
Título: Re:STEM
Publicado por: saturno en Octubre 02, 2023, 08:49:44 am
Video famoso sobre las dimensiones comparadas del universo, desde la red sideral hasta la micromateria


Universe Size Comparison | Cosmic Eye (Original HD)
https://www.youtube.com/watch?v=8Are9dDbW24 (https://www.youtube.com/watch?v=8Are9dDbW24)

Citar
10,187,163 views  May 1, 2018
This is the original landscape-format version of the short movie Cosmic Eye, designed by astrophysicist Danail Obreschkow. The movie zooms through all well-known scales of the universe from minuscule elementary particles out to the gigantic cosmic web. This project was inspired by a progression of increasingly accurate graphical representations of the scales of the universe, including the classical essay "Cosmic View" by Kees Boeke (1957), the short movie "Cosmic Zoom" by Eva Szasz (1968), and the legendary movie "Powers of Ten" by Charles and Ray Eames (1977). Cosmic Eye takes these historical visualisations to the state-of-the-art using real photographs obtained with modern detectors, telescopes, and microscopes. Other views are renderings of modern computer models. Vector-based blending techniques are used to create a seamless zoom.

This 2018-version of Cosmic Eye contains improved graphics and minor technical corrections compared to the 2011-version in portrait format.



XGracias Wasabi (http://www.bulle-immobiliere.org/forum/viewtopic.php?f=206&t=95214&p=2726094#p2689058)
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 08, 2023, 22:29:15 pm
(https://i.imgur.com/6oYBVqe.jpg)

https://elpais.com/ciencia/2023-10-06/lanzamiento-del-miura-1.html

(https://i.imgur.com/Oh4P3j2.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 12, 2023, 10:23:48 am
https://www.eleconomista.es/tecnologia/noticias/12486839/10/23/google-enchufa-su-inteligencia-artificial-en-miles-de-semaforos.html (https://www.eleconomista.es/tecnologia/noticias/12486839/10/23/google-enchufa-su-inteligencia-artificial-en-miles-de-semaforos.html)

(https://i.imgur.com/gRQgxmj.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Octubre 14, 2023, 22:47:46 pm
Citar
Hydro Dams Are Struggling To Handle the World's Intensifying (https://news.slashdot.org/story/23/10/13/2245245/hydro-dams-are-struggling-to-handle-the-worlds-intensifying-weather)
Posted by BeauHD on Saturday October 14, 2023 @03:00AM from the predicting-the-future dept.

Saqib Rahim reports via Wired:
Citar
It's been one of the wettest years (https://abcnews.go.com/US/wireStory/miracle-water-year-california-rain-snow-put-states-103699643) in California since records began. From October 2022 to March 2023, the state was blasted by 31 atmospheric rivers -- colossal bands of water vapor that form above the Pacific and become firehoses when they reach the West Coast. What surprised climate scientists wasn't the number of storms, but their strength and rat-a-tat frequency. The downpours shocked a water system that had just experienced the driest three years in recorded state history, causing floods, mass evacuations, and at least 22 deaths.

Swinging between wet and dry extremes is typical for California, but last winter's rain, potentially intensified by climate change, was almost unmanageable. Add to that the arrival of El Nino, and more extreme weather looks likely for the state. This is going to make life very difficult for the dam operators tasked with capturing and controlling much of the state's water. Like most of the world's 58,700 large dams, those in California were built for yesterday's more stable climate patterns. But as climate change taxes the world's water systems -- affecting rainfall, snowmelt, and evaporation -- it's getting tough to predict how much water gets to a dam, and when (https://www.wired.com/story/hydro-dams-climate-change-weather-forecasting/). Dams are increasingly either water-starved, unable to maintain supplies of power and water for their communities, or overwhelmed and forced to release more water than desired -- risking flooding downstream.

But at one major dam in Northern California, operators have been demonstrating how to not just weather these erratic and intense storms, but capitalize on them. Management crews at New Bullards Bar, built in 1970, entered last winter armed with new forecasting tools that gave unprecedented insight into the size and strength of the coming storms -- allowing them to strategize how to handle the rain. First, they let the rains refill their reservoir, a typical move after a long drought. Then, as more storms formed at sea, they made the tough choice to release some of this precious hoard through their hydropower turbines, confident that more rain was coming. "I felt a little nervous at first," says John James, director of resource planning at Yuba Water Agency in northern California. Fresh showers soon validated the move. New Bullards Bar ended winter with plumped water supplies, a 150 percent boost in power generation, and a clean safety record. The strategy offers a glimpse of how better forecasting can allow hydropower to adapt to the climate age.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 12, 2023, 22:26:16 pm
https://www.expansion.com/valencia/2023/11/10/654df09f468aebf0588b456f.html (https://www.expansion.com/valencia/2023/11/10/654df09f468aebf0588b456f.html)

(https://i.imgur.com/5QbMPPV.jpg)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 14, 2023, 22:37:39 pm
Citar
AI Could Predict Heart Attack Risk Up To 10 Years in the Future, Finds Oxford Study (https://science.slashdot.org/story/23/11/14/1548238/ai-could-predict-heart-attack-risk-up-to-10-years-in-the-future-finds-oxford-study)
Posted by msmash on Tuesday November 14, 2023 @11:00AM from the breakthroughs dept.

AI could be used to predict if a person is at risk of having a heart attack up to 10 years in the future (https://www.theguardian.com/society/2023/nov/13/ai-could-predict-heart-attack-risk-up-to-10-years-in-the-future-finds-oxford-study), a study has found. From a report:
Citar
The technology could save thousands of lives while improving treatment for almost half of patients, researchers at the University of Oxford said. The study, funded by the British Heart Foundation (BHF), looked at how AI might improve the accuracy of cardiac CT scans, which are used to detect blockages or narrowing in the arteries.

Prof Charalambos Antoniades, chair of cardiovascular medicine at the BHF and director of the acute multidisciplinary imaging and interventional centre at Oxford, said: "Our study found that some patients presenting in hospital with chest pain -- who are often reassured and sent back home -- are at high risk of having a heart attack in the next decade, even in the absence of any sign of disease in their heart arteries. Here we demonstrated that providing an accurate picture of risk to clinicians can alter, and potentially improve, the course of treatment for many heart patients."

About 350,000 people in the UK have a CT scan each year but, according to the BHF, many patients later die of heart attacks due to their failure in picking up small, undetectable narrowings. Researchers analysed the data of more than 40,000 patients undergoing routine cardiac CT scans at eight UK hospitals, with a median follow-up time of 2.7 years. The AI tool was tested on a further 3,393 patients over almost eight years and was able to accurately predict the risk of a heart attack. AI-generated risk scores were then presented to medics for 744 patients, with 45% having their treatment plans altered by medics as a result.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 14, 2023, 22:39:41 pm
Citar
Google DeepMind's Weather AI Can Forecast Extreme Weather Faster and More Accurately ([url]https://slashdot.org/story/23/11/14/1750257/google-deepminds-weather-ai-can-forecast-extreme-weather-faster-and-more-accurately[/url])
Posted by msmash on Tuesday November 14, 2023 @01:40PM from the breakthroughs dept.

In research published in Science today ([url]http://www.science.org/doi/10.1126/science.adi2336[/url]), Google DeepMind's model, GraphCast, was able to predict weather conditions up to 10 days in advance ([url]https://www.technologyreview.com/2023/11/14/1083366/google-deepminds-weather-ai-can-forecast-extreme-weather-quicker-and-more-accurately/[/url]), more accurately and much faster than the current gold standard. From a report:
Citar
GraphCast outperformed the model from the European Centre for Medium-Range Weather Forecasts (ECMWF) in more than 90% of over 1,300 test areas. And on predictions for Earth's troposphere -- the lowest part of the atmosphere, where most weather happens -- GraphCast outperformed the ECMWF's model on more than 99% of weather variables, such as rain and air temperature. Crucially, GraphCast can also offer meteorologists accurate warnings, much earlier than standard models, of conditions such as extreme temperatures and the paths of cyclones. In September, GraphCast accurately predicted that Hurricane Lee would make landfall in Nova Scotia nine days in advance, says Remi Lam, a staff research scientist at Google DeepMind. Traditional weather forecasting models pinpointed the hurricane to Nova Scotia only six days in advance.

[...] Traditionally, meteorologists use massive computer simulations to make weather predictions. They are very energy intensive and time consuming to run, because the simulations take into account many physics-based equations and different weather variables such as temperature, precipitation, pressure, wind, humidity, and cloudiness, one by one. GraphCast uses machine learning to do these calculations in under a minute. Instead of using the physics-based equations, it bases its predictions on four decades of historical weather data. GraphCast uses graph neural networks, which map Earth's surface into more than a million grid points. At each grid point, the model predicts the temperature, wind speed and direction, and mean sea-level pressure, as well as other conditions like humidity. The neural network is then able to find patterns and draw conclusions about what will happen next for each of these data points.
Saludos.
Título: Re:STEM
Publicado por: Saturio en Noviembre 15, 2023, 01:09:18 am
Citar
Google DeepMind's Weather AI Can Forecast Extreme Weather Faster and More Accurately ([url]https://slashdot.org/story/23/11/14/1750257/google-deepminds-weather-ai-can-forecast-extreme-weather-faster-and-more-accurately[/url])
Posted by msmash on Tuesday November 14, 2023 @01:40PM from the breakthroughs dept.

In research published in Science today ([url]http://www.science.org/doi/10.1126/science.adi2336[/url]), Google DeepMind's model, GraphCast, was able to predict weather conditions up to 10 days in advance ([url]https://www.technologyreview.com/2023/11/14/1083366/google-deepminds-weather-ai-can-forecast-extreme-weather-quicker-and-more-accurately/[/url]), more accurately and much faster than the current gold standard. From a report:
Citar
GraphCast outperformed the model from the European Centre for Medium-Range Weather Forecasts (ECMWF) in more than 90% of over 1,300 test areas. And on predictions for Earth's troposphere -- the lowest part of the atmosphere, where most weather happens -- GraphCast outperformed the ECMWF's model on more than 99% of weather variables, such as rain and air temperature. Crucially, GraphCast can also offer meteorologists accurate warnings, much earlier than standard models, of conditions such as extreme temperatures and the paths of cyclones. In September, GraphCast accurately predicted that Hurricane Lee would make landfall in Nova Scotia nine days in advance, says Remi Lam, a staff research scientist at Google DeepMind. Traditional weather forecasting models pinpointed the hurricane to Nova Scotia only six days in advance.

[...] Traditionally, meteorologists use massive computer simulations to make weather predictions. They are very energy intensive and time consuming to run, because the simulations take into account many physics-based equations and different weather variables such as temperature, precipitation, pressure, wind, humidity, and cloudiness, one by one. GraphCast uses machine learning to do these calculations in under a minute. Instead of using the physics-based equations, it bases its predictions on four decades of historical weather data. GraphCast uses graph neural networks, which map Earth's surface into more than a million grid points. At each grid point, the model predicts the temperature, wind speed and direction, and mean sea-level pressure, as well as other conditions like humidity. The neural network is then able to find patterns and draw conclusions about what will happen next for each of these data points.
Saludos.


Estas cosas me preocupan.
A ver si me explico. Me alegro de que tengamos formas mejores y más eficientes de predecir el tiempo.
El problema es que, hasta donde yo entiendo (y si no es así, los que saben más que me corrijan), realmente la IA no es inteligente, puesto que si lo fuera nos podría contar cómo ha llegado al resultado. Y entiendo que no es así, la IA no nos puede explicar por qué va a llover mañana. Por lo tanto ni la IA ni nosotros sabemos por qué pasan las cosas o cómo hemos llegado a ese resultado.
No sé si ven el problema que yo veo.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 15, 2023, 08:02:09 am
Estas cosas me preocupan.
A ver si me explico. Me alegro de que tengamos formas mejores y más eficientes de predecir el tiempo.
El problema es que, hasta donde yo entiendo (y si no es así, los que saben más que me corrijan), realmente la IA no es inteligente, puesto que si lo fuera nos podría contar cómo ha llegado al resultado. Y entiendo que no es así, la IA no nos puede explicar por qué va a llover mañana. Por lo tanto ni la IA ni nosotros sabemos por qué pasan las cosas o cómo hemos llegado a ese resultado.
No sé si ven el problema que yo veo.
Ese es el quid de la cuestión con todo el tema de las IAs (aunque, en mi opinión, denominar IAs a modelos como el de GraphCast no ayudan precisamente a centrar el debate).

Como saben, hasta este momento, los modelos de predicción meterorológica se han basado en resolver sistemas de ecuaciones complejísimos mediante supercomputadores, y a día de hoy, disponemos de docenas de modelos diferentes con nombres tan esotéricos como: GFS (https://en.wikipedia.org/wiki/Global_Forecast_System) 13, AROME 1.3,  Zephr-HD 3,  WRF (https://en.wikipedia.org/wiki/Weather_Research_and_Forecasting_Model) 9, ICON 7, EWAM 5, GDPS 15, GWAM 27, GWDPS 25, etc..

Quienes hayan investigado un poco sobre el tema, sbrán que todos esos modelos parten de los trabajos realizados a mediados del siglo pasado por el matemático y meteorólogo estadounidense Edward Norton Lorenz (https://es.wikipedia.org/wiki/Edward_Lorenz) (si les suena el apellido, es porque es el padre del famoso "atractor de Lorenz (https://es.wikipedia.org/wiki/Atractor_de_Lorenz)") y que es mundialmente conocido por haber acuñado el término efecto mariposa (https://es.wikipedia.org/wiki/Efecto_mariposa).

Según ha ido creciendo la potencia de cálculo de los supercomputadores los modelos se han ido haciendo más y más complejos con el fin de mejorar las simulaciones y lograr así predicciones cada vez más fiables y a plazos cada vez más amplios.

Evidentemente, afinar esos sistemas de ecuaciones es una tarea complejísima que ocupa a cientos de matemáticos por todo el mundo y, por la ley de los rendimientos decrecientes, conseguir mejorar los modelos actuales supone cada vez más esfuerzo para lograr mejoras cada vez más pequeñas.

El planeamiento de Google con GraphCast es abordar el problema de forma totalmente diferente. En vez de intentar mejorar "a mano" esos sistemas de ecuaciones con más y más variables y cada vez más complejos de resolver, dejemos que la IA (una "simple" red neuronal), sea capaz de identificar patrones entre las ingentes cantidades de datos que se han ido recogiendo durante décadas, y "entrenemos" la red neuronal de forma que se ajusten los pesos de las "neuronas" de tal forma que, para una entrada dada, la salida coincida con lo que ocurrió en cada caso.

Aunque teóricamente sería posible crear un modelo capaz de predecir el tiempo con precisión arbitraria (evidentemente, limitado por el número de sensores utilizados para recoger datos a lo largo, ancho —y alto— del orbe y de la precisión de los mismos), ni los mejores matemáticos del mundo, con todos los recursos habidos y por haber a su alcance, serían capaces de crear un sistema de ecuaciones tan compejo.

Al final, como todos sabemos, las IAs actuales son simplemente modelos estadísticos que, utilizando técnicas como la del descenso del gradiente (https://es.wikipedia.org/wiki/Descenso_del_gradiente), son capaces de optimizar una función arbitrariamente compleja, y es en casos como el de la predicción meteorológica, en donde este tipo de modelos pueden superar al mejor modelo que pueda ser creado por seres humanos.

¿Es cierto que no sabemos con exactitud como la red neuronal realiza la predicción? Evidentemente.

¿Debemos por ello descartar el uso de este tipo de modelos? Yo creo que no.

Saludos.
Título: Re:STEM
Publicado por: Saturio en Noviembre 15, 2023, 13:34:22 pm
Estas cosas me preocupan.
A ver si me explico. Me alegro de que tengamos formas mejores y más eficientes de predecir el tiempo.
El problema es que, hasta donde yo entiendo (y si no es así, los que saben más que me corrijan), realmente la IA no es inteligente, puesto que si lo fuera nos podría contar cómo ha llegado al resultado. Y entiendo que no es así, la IA no nos puede explicar por qué va a llover mañana. Por lo tanto ni la IA ni nosotros sabemos por qué pasan las cosas o cómo hemos llegado a ese resultado.
No sé si ven el problema que yo veo.
Ese es el quid de la cuestión con todo el tema de las IAs (aunque, en mi opinión, denominar IAs a modelos como el de GraphCast no ayudan precisamente a centrar el debate).


¿Es cierto que no sabemos con exactitud como la red neuronal realiza la predicción? Evidentemente.

¿Debemos por ello descartar el uso de este tipo de modelos? Yo creo que no.

Saludos.

No digo que los descartemos pero veo algo que no sé si llamar siniestro.
O igual son tontadas mías, claro.

Imaginemos que mañana una IA (o lo que sea) nos dice cómo curar el cáncer. Le damos los datos de un enfermo y nos da el tratamiento. Y va y se cura. Pero no sabemos por qué. Y la IA (o lo que sea) tampoco lo sabe.

Imaginemos que cada vez podemos resolver más y más problemas prácticos. Determinar si nos va a impactar un meteorito y dónde y a qué velocidad, si un volcán va a entrar en erupción o si habrá un terremoto, dónde y de qué escala. O yo qué sé, determinar por dónde pasarán los bancos de bacalao para pescarlos más eficientemente.
Pero no sabemos por qué.

Y no estoy hablado de posibles errores, porque al final se detectarían. Una vez leí una cosa curiosa sobre una IA que diagnosticaba tuberculosis. Y lo hacía mal. Entre los datos que se le presentaban (posiblemente sin intención ninguna) estaba el modelo de la máquina que había hecho las radiografías. Como la tuberculosis era más frecuente antiguamente, en los datos que se le presentaron había muchísimos positivos hechos en máquinas antiguas (quizás también había más positivos que venían de zonas del mundo donde la tuberculosis es más frecuente y donde hay maquinas más viejas). El resultado es que si te hacías una radiografía en una máquina antigua había muchas posibilidades de que la IA dijese que tenías tuberculosis mientras que un médico viendo la radiografía diría que estás perfectamente sano.

Vieron que la IA se equivocaba, lo que pasa es que hubo que hacer un trabajo detectivesco para saber por qué.

Pero insisto, ese no es el problema, si la IA se equivoca se va a detectar y se va a descartar.

Lo que veo rarísimo es que lleguemos a conclusiones sin que nadie sepa la razón.




Título: Re:STEM
Publicado por: puede ser en Noviembre 15, 2023, 14:13:38 pm
La historia del pavo inductivista de Bertrand Russell sitúa bastante bien los límites de esta metodología que sigue la IA
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 22, 2023, 08:48:10 am
Citar
Giant Batteries Drain Economics of Gas Power Plants (https://hardware.slashdot.org/story/23/11/22/029246/giant-batteries-drain-economics-of-gas-power-plants)
Posted by BeauHD on Wednesday November 22, 2023 @02:00AM from the shifting-economics dept.

Batteries used to store power produced by renewables are becoming cheap enough to make developers abandon scores of projects for gas-fired generation worldwide (https://www.reuters.com/business/energy/giant-batteries-drain-economics-gas-power-plants-2023-11-21/). Reuters reports:
Citar
The long-term economics of gas-fired plants, used in Europe and some parts of the United States primarily to compensate for the intermittent nature of wind and solar power, are changing quickly, according to Reuters' interviews with more than a dozen power plant developers, project finance bankers, analysts and consultants. They said some battery operators are already supplying back-up power to grids at a price competitive with gas power plants, meaning gas will be used less. The shift challenges assumptions about long-term gas demand and could mean natural gas has a smaller role in the energy transition than posited by the biggest, listed energy majors.

In the first half of the year, 68 gas power plant projects were put on hold or cancelled globally, according to data provided exclusively to Reuters by U.S.-based non-profit Global Energy Monitor. [...] "In the early 1990s, we were running gas plants baseload, now they are shifting to probably 40% of the time and that's going to drop off to 11%-15% in the next eight to 10 years," Keith Clarke, chief executive at Carlton Power, told Reuters. Developers can no longer use financial modelling that assumes gas power plants are used constantly throughout their 20-year-plus lifetime, analysts said. Instead, modellers need to predict how much gas generation is needed during times of peak demand and to compensate for the intermittency of renewable sources that are hard to anticipate.

The cost of lithium-ion batteries has more than halved from 2016 to 2022 to $151 per kilowatt hour of battery storage, according to BloombergNEF. At the same time, renewable generation has reached record levels. Wind and solar powered 22% of the EU's electricity last year, almost doubling their share from 2016, and surpassing the share of gas generation for the first time, according to think tank Ember's European Electricity Review. "In the early years, capacity markets were dominated by fossil fuel power stations providing the flexible electricity supply," said Simon Virley, head of energy at KPMG. Now batteries, interconnectors and consumers shifting their electricity use are also providing that flexibility, Virley added.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Noviembre 28, 2023, 20:52:26 pm
Citar
Google's New Geothermal Energy Project is Up and Running (https://tech.slashdot.org/story/23/11/28/1752240/googles-new-geothermal-energy-project-is-up-and-running)
Posted by msmash on Tuesday November 28, 2023 @01:40PM from the making-inroads dept.

A first-of-its-kind geothermal project is now up and running in Nevada, where it will help power Google's data centers with clean energy (https://www.theverge.com/2023/11/28/23972940/google-data-center-geothermal-energy). From a report:
Citar
Google is partnering with startup Fervo, which has developed new technology for harnessing geothermal power. Since they're using different tactics than traditional geothermal plants, it is a relatively small project with the capacity to generate 3.5 MW. For context, one megawatt is enough to meet the demand of roughly 750 homes. The project will feed electricity into the local grid that serves two of Google's data centers outside of Las Vegas and Reno.

It's part of Google's plan to run on carbon pollution-free electricity around the clock by 2030. To reach that goal, it'll have to get more sources of clean energy online. And it sees geothermal as a key part of the future electricity mix that can fill in whenever wind and solar energy wane. "If you think about how much we advanced wind and solar and lithium ion storage, here we are -- this is kind of the next set of stuff and we feel like companies have a huge role to play in advancing these technologies," says Michael Terrell, senior director of energy and climate at Google.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Diciembre 01, 2023, 07:37:49 am
He estado dudando sobre si colgarlo en el hilo de Coches eléctricos (https://www.transicionestructural.net/index.php?topic=347.0), pero creo que encaja mejor en este...

Citar
Hyundai and Kia's New 'Uni Wheel' Drive System Could Revolutionize EV Design (https://tech.slashdot.org/story/23/12/01/0032246/hyundai-and-kias-new-uni-wheel-drive-system-could-revolutionize-ev-design)
Posted by BeauHD on Thursday November 30, 2023 @09:02PM from the game-changer dept.

"Two articles from Electrek (https://electrek.co/2023/11/29/hyundai-kia-introduce-new-uni-wheel-drive-system-revolutionize-ev-design/) and InsideEVs (https://insideevs.com/news/698654/hyundai-kia-uni-wheel-ditches-cv-axles-for-more-room/) describe Hyundai and Kia's new 'Uni Wheel' drive system that could revolutionize EV design," writes longtime Slashdot reader Uncle_Meataxe (https://slashdot.org/~Uncle_Meataxe). From a report:
Citar
Described by its makers as a "paradigm-shifting vehicle drive system," the Uni Wheel moves the main drive system components to the vacant space within an EVs wheel hubs. The approach utilizes a planetary gear configuration consisting of a sun gear in the center, four pinion gears on each side, and a ring gear surrounding everything. Traditional ICE vehicles utilize CV joints, but by moving them closer to the wheels requires a short drive train length and as a result, a decrease in efficiency and durability -- especially over bumpy terrain. Hyundai and Kia's Uni Wheel system on the other hand, can transmit power with almost zero changes to efficiency, regardless of wheel movement.
"Advantages include more platform space and more room within an EV's interior," adds Uncle_Meataxe. "When this system may be integrated into an actual EV remains unclear, but Kia and Hyundai have already registered eight patents related to the technology." You can learn more about the new drive system via an instructional video on YouTube (https://youtu.be/Nd6C0y8xc20?si=8_eaGDrnE7qWdm2u).
(https://i.imgur.com/oQDhXHq.jpg) (https://www.youtube.com/watch?v=Nd6C0y8xc20)
Hyundai Motor Group | The world's first drive system concept | Universal Wheel Drive System (https://www.youtube.com/watch?v=Nd6C0y8xc20)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Diciembre 12, 2023, 18:04:32 pm
Citar
AI As Good As Doctors At Checking X-Rays (https://science.slashdot.org/story/23/12/12/0239221/ai-as-good-as-doctors-at-checking-x-rays)
Posted by BeauHD on Tuesday December 12, 2023 @09:40AM from the future-of-medicine dept.

A new study from the University of Warwick found that artificial intelligence can analyze X-rays and diagnose medical issues better than doctors (https://www.bbc.com/news/articles/ckdpg5p820xo). The BBC reports:
Citar
Software was trained using chest X-rays from more than 1.5m patients, and scanned for 37 possible conditions. It was just as accurate or more accurate than doctors' analysis at the time the image was taken for 35 out of 37 conditions, the University of Warwick said. The AI could reduce doctors' workload and delays in diagnosis, and offer radiologists the "ultimate second opinion," researchers added. The software understood that some abnormalities for which it scanned were more serious than others, and could flag the most urgent to medics, the university said.

To check the results were accurate, more than 1,400 X-rays analysed by the software were cross-examined by senior radiologists. They then compared the diagnoses made by the AI with those made by radiologists at the time. The software, called X-Raydar, removed human error and bias, said lead author, Dr Giovanni Montana, Professor of Data Science at Warwick University. "If a patient is referred for an X-ray with a heart problem, doctors will inevitably focus on the heart over the lungs," he said. "This is totally understandable but runs the risk of undetected problems in other areas".
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 07, 2024, 20:01:51 pm
Citar
Flowers Are Evolving To Have Less Sex (https://science.slashdot.org/story/24/01/05/1733245/flowers-are-evolving-to-have-less-sex)
Posted by msmash on Friday January 05, 2024 @02:20PM from the how-about-that dept.

As the number of bees and other pollinators falls, field pansies are adapting by fertilizing their own seeds (https://www.nytimes.com/2024/01/04/science/flower-sex-evolution-bees.html), a new study found. From a report:
Citar
Every spring, trillions of flowers mate with the help of bees and other animals. They lure the pollinators to their flowers with flashy colors and nectar. As the animals travel from flower to flower, they take pollen with them, which can fertilize the seeds of other plants. A new study suggests that humans are quickly altering this annual rite of spring. As toxic pesticides and vanishing habitats have driven down the populations of bees and other pollinators, some flowers have evolved to fertilize their own seeds more often, rather than those of other plants.

Scientists said they were surprised by the speed of the changes, which occurred in just 20 generations. "That's rapid evolution," said Pierre-Olivier Cheptou, an evolutionary ecologist at the University of Montpellier in France who led the research. Dr. Cheptou was inspired to carry out the study when it became clear that bees and other pollinators were in a drastic decline. Would flowers that depend on pollinators for sex, he wondered, find another way to reproduce? The study focused on a weedy plant called the field pansy, whose white, yellow and purple flowers are common in fields and on roadsides across Europe. Field pansies typically use bumblebees to sexually reproduce. But they can also use their own pollen to fertilize their own seeds, a process called selfing.

Selfing is more convenient than sex, since a flower does not have to wait for a bee to drop by. But a selfing flower can use only its own genes to produce new seeds. Sexual reproduction allows flowers to mix their DNA, creating new combinations that may make them better prepared for diseases, droughts and other challenges that future generations may face. To track the evolution of field pansies in recent decades, Dr. Cheptou and his colleagues took advantage of a cache of seeds that France's National Botanical Conservatories collected in the 1990s and early 2000s. The researchers compared these old flowers with new ones from across the French countryside. After growing the new and old seeds side by side in the lab under identical conditions, they discovered that selfing had increased 27 percent since the 1990s.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 07, 2024, 20:05:36 pm
Citar
World's First Partial Heart Transplant Grows Valves and Arteries (https://science.slashdot.org/story/24/01/04/2245251/worlds-first-partial-heart-transplant-grows-valves-and-arteries)
Posted by BeauHD on Thursday January 04, 2024 @10:30PM from the proof-of-concept dept.

An anonymous reader quotes a report from Interesting Engineering:
Citar
Marking a significant advancement in medical science, the world's first partial heart transplant has achieved the expected outcome after over a year of research efforts (https://interestingengineering.com/health/partial-heart-transplant-valves-arteries). Carried out by Duke Health, the patient, a young individual, now exhibits functioning valves and arteries that are growing in tandem with the transplant, as initially expected by the medical team. In spring 2022, doctors carried out the procedure on a baby who needed a new heart valve. Before, they used non-living valves, which didn't grow with the child. This meant the child needed frequent replacements, and the surgeries had a 50 percent chance of being deadly. The new procedure avoids these problems, according to the team.

Babies with serious heart valve problems face a tough challenge because there aren't any implants that can grow with them. So, these babies end up needing new implants over and over until they're big enough for an adult-sized valve. It's a problem that doesn't have a solution yet. Duke Health doctors, leading a study published in the Journal of the American Medical Association (https://jamanetwork.com/journals/jama/article-abstract/2813552?resultClick=1), discovered that the innovative valve collection method used in the partial heart transplant resulted in two properly functioning valves and arteries that are growing along with the child, resembling natural blood vessels. "This publication is proof that this technology works, this idea works, and can be used to help other children," said Joseph W. Turek, first author of the study and Duke's chief of pediatric cardiac surgery, in a statement.
The research also notes that the new procedure requires less immunosuppressant medication, reducing potential long-term side effects.

It also facilitates a "domino transplant" method, where one donor heart benefits multiple patients, potentially doubling the number of hearts available for children with heart disease by utilizing previously unused hearts and valves.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 07, 2024, 20:17:53 pm
Citar
New Antibiotic Can Kill Drug-Resistant Bacteria (https://science.slashdot.org/story/24/01/04/0135245/new-antibiotic-can-kill-drug-resistant-bacteria)
Posted by BeauHD on Thursday January 04, 2024 @02:00AM from the infectious-diseases dept.

fahrbot-bot (https://slashdot.org/~fahrbot-bot) shares a report from The Guardian:
Citar
Scientists have discovered an entirely new class of antibiotic (https://www.theguardian.com/science/2024/jan/03/scientists-new-class-antibiotic-kill-drug-resistant-bacteria) that appears to kill one of three bacteria considered to pose the greatest threat to human health because of their extensive drug-resistance. Zosurabalpin defeated highly drug-resistant strains of Carbapenem-resistant Acinetobacter baumannii (Crab) in mouse models of pneumonia and sepsis, and was being tested in human trials. Crab is classified as a priority 1 critical pathogen by the World Health Organization, alongside two other drug-resistant forms of bacteria -- Pseudomonas aeruginosa and Enterobacteriaceae.

Antibiotic-resistant infections pose an urgent threat to human health -- particularly those caused by a large group of bacteria known as Gram-negative bacteria, which are protected by an outer shell containing a substance called lipopolysaccharide (LPS). "LPS allows bacteria to live in harsh environments, and it also allows them to evade attack by our immune system," said Dr Michael Lobritz, the global head of infectious diseases at Roche Pharma Research and Early Development in Basel Switzerland, which developed the new drug. No new antibiotic for Gram-negative bacteria have been approved in more than 50 years.

Roche had previously identified Zosurabalpin as capable of blocking the growth of A baumannii but it was not clear how it worked, or if it would be effective in animals with Crab-related infections. Through a series of experiments published in Nature, Prof Daniel Kahne at Harvard University in Cambridge, US, and colleagues showed that the drug prevented LPS from being transported to the outer membrane of the bacterium, killing it. They also found that Zosurabalpin considerably reduced levels of bacteria in mice with Crab-induced pneumonia and prevented the death of those with Crab-related sepsis. While [Lobritz] stressed that this molecule alone would not solve the public health threat of antimicrobial resistant infections, the discovery could lay the foundations for future efforts to drug the same transport system in other bacteria.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 09, 2024, 21:21:33 pm
Citar
Microsoft's New Battery is a Test of AI-Infused Scientific Discovery (https://slashdot.org/story/24/01/09/1649256/microsofts-new-battery-is-a-test-of-ai-infused-scientific-discovery)
Posted by msmash on Tuesday January 09, 2024 @11:49AM from the breakthroughs dept.

Harry McCracken, writing for FastCompany (https://www.fastcompany.com/91006385/microsofts-lithium-battery-research-bottle-rocket-azure-quantum-elements):
Citar
Recently, Microsoft built a clock. Well, "built" may be overstating things. Members of the company's quantum computing team found a small digital clock in a wood case on Amazon -- the kind you might mistake for a nicer-than-usual trade show tchotchke. They hacked it to run off two experimental batteries they'd created in collaboration with staffers at the U.S. Department of Energy's Pacific Northwest National Laboratory (PNNL). Then they dressed up its enclosure by adding the logo of Azure Quantum Elements, the Microsoft platform for AI-enhanced scientific discovery that had been instrumental in developing the new battery technology.

The point of this little DIY project was to prove the batteries worked in a visceral way: "You want to have a wow moment," explains Brian Bilodeau, the head of partnerships, strategy, and operations for Azure Quantum. And the person the quantum team hoped to wow was Microsoft CEO Satya Nadella. Not that getting Nadella's attention was such a daunting prospect. Throwing vast amounts of Azure high-performance computing (HPC) resources at a big, hairy technical challenge such as materials research is the sort of challenge he's predisposed to take a personal interest in. Still, the tangible evidence of success made for a memorable moment: "I was very, very excited to see it come through," Nadella remembers.

The coin-sized CR2032 batteries powering the clock looked like the ones you might find in a pocket calculator or garage door opener. But on the inside, they used a solid-state electrolyte that replaces 70% of the lithium in garden-variety batteries with sodium. That holds the potential to address multiple issues with lithium batteries as we know them: their limited life on a charge, shrinking capacity over time, subpar performance in extreme temperatures, and risk of catching fire or even exploding. In addition, reducing lithium use in favor of cheap, plentiful sodium could be a boon to the fraught battery supply chain. With further development, the new material could benefit the myriad aspects of modern life that depend on batteries, from smartphones to EVs to the power grid. But Microsoft, being Microsoft, regards all this promise first and foremost as proof of Azure Quantum Elements' usefulness to the customers it's designed to serve. Unveiled last June, the cloud service is currently a "private preview" being tested by organizations such as Britain's Johnson Matthey, which is using it to help design catalytic converters and hydrogen fuel cells.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 10, 2024, 22:49:17 pm
Citar
DeepMind Spin-off Aims To Halve Drug Discovery Times Following Big Pharma Deals (https://tech.slashdot.org/story/24/01/10/1442222/deepmind-spin-off-aims-to-halve-drug-discovery-times-following-big-pharma-deals)
Posted by msmash on Wednesday January 10, 2024 @09:42AM from the moving-forward dept.

The head of Google DeepMind believes its drug discovery spinout will halve the time taken to find new medicines (https://www.ft.com/content/a08e4ad9-5277-4860-9df2-d5df2ad1e57d), attracting the attention of the world's biggest pharmaceutical companies which are looking to artificial intelligence to revolutionise the lengthy process. From a report:
Citar
Speaking to the Financial Times, Demis Hassabis, who co-founded Google's AI unit and also leads the drugs offshoot Isomorphic Labs, said the goal was to reduce the discovery stage -- when potential drugs are identified before clinical trials -- from the average of five years to two. "I think that would be success for us and be very meaningful," he said.

Hassabis stated the goal days after announcing Isomorphic Lab's first two pharmaceutical partnerships with Eli Lilly and Novartis, which came to a combined value of up to $3bn, in deals set to transform the finances of the unprofitable group. Isomorphic Labs uses an AI platform to predict biochemical structures, which aids the creation of new drugs by recommending which potential compounds will have the desired impact in the body. Including clinical trials, it often takes up to a decade to discover and develop a new drug, costing on average about $2.7bn, according to research by the Tufts Center for the Study of Drug Development.

Large drugmakers, under pressure to fill their pipelines with new potential medicines while existing ones face patent cliffs, when they will face far cheaper generic competition, are eager for new ways to shorten the process. As healthcare systems around the world put pressure on drug prices, pharma companies are also looking for ways to cut costs in research and development. Hassabis said that many drugmakers had also been eager to partner with Isomorphic but the company wanted to focus on collaborations that could improve its technology.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 11, 2024, 08:07:20 am
Citar
A Huge Battery Has Replaced Hawaii's Last Coal Plant (https://hardware.slashdot.org/story/24/01/10/2326214/a-huge-battery-has-replaced-hawaiis-last-coal-plant)
Posted by BeauHD on Wednesday January 10, 2024 @08:30PM from the clean-energy-grid dept.

Julian Spector reports via Canary Media:
Citar
Hawaii shut down its last coal plant on September 1, 2022, eliminating 180 megawatts of fossil-fueled baseload power from the grid on Oahu -- a crucial step in the state's first-in-the-nation commitment to cease burning fossil fuels for electricity by 2045. But the move posed a question that's becoming increasingly urgent as clean energy surges across the United States: How do you maintain a reliable grid while switching from familiar fossil plants to a portfolio of small and large renewables that run off the vagaries of the weather? Now Hawaii has an answer: It's a gigantic battery, unlike the gigantic batteries that have been built before (https://www.canarymedia.com/articles/energy-storage/a-huge-battery-has-replaced-hawaiis-last-coal-plant).

The Kapolei Energy Storage system actually began commercial operations before Christmas on the industrial west side of Oahu, according to Plus Power, the Houston-based firm that developed and owns the project. Now, Kapolei's 158 Tesla Megapacks are charging and discharging based on signals from utility Hawaiian Electric. The plant's 185 megawatts of instantaneous discharge capacity match what the old coal plant could inject into the grid, though the batteries react far more quickly, with a 250-millisecond response time. Instead of generating power, they absorb it from the grid, ideally when it's flush with renewable generation, and deliver that cheap, clean power back in the evening hours when it's desperately needed.

The construction process had its setbacks, as did the broader effort to replace the coal plant with a roster of large-scale clean energy projects. The Kapolei battery was initially intended to come online before the coal plant retired. Covid disrupted deliveries for the grid battery industry across the board, and Kapolei's remote location in the middle of the Pacific Ocean didn't make things easier. By summer 2021, Plus Power was hoping to complete Kapolei by the end of 2022, but it ended up taking another year. Even then, it has joined the grid before several of the other large solar and battery projects slated to replace the coal plant's production with clean power.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 14, 2024, 21:31:13 pm
Citar
Chinese Company Announces Mass Production of Small Nuclear Battery With 50-Year Lifespan (https://hardware.slashdot.org/story/24/01/13/2229243/chinese-company-announces-mass-production-of-small-nuclear-battery-with-50-year-lifespan)
Posted by EditorDavid on Sunday January 14, 2024 @07:34AM from the battery-builders dept.

"Chinese company Betavolt has announced an atomic energy battery for consumers with a touted 50-year lifespan," reports Tom's Hardware (https://www.tomshardware.com/pc-components/power-supplies/chinese-developed-nuclear-battery-has-a-50-year-lifespan):
Citar
The Betavolt BV100 will be the first product to launch using the firm's new atomic battery technology, constructed using a nickel -63 isotope and diamond semiconductor (https://www.tomshardware.com/news/semiconductor-researchers-solve-diamond-wafer-slicing-challenges-with-lasers) material. Betavolt says that its nuclear battery will target aerospace, AI devices, medical, MEMS systems, intelligent sensors, small drones, and robots — and may eventually mean manufacturers can sell smartphones that never need charging...

[T]he BV100, which is in the pilot stage ahead of mass production, doesn't offer a lot of power. This 15 x 15 x 5mm battery delivers 100 microwatts at 3 volts. It is mentioned that multiple BV100 batteries can be used together in series or parallel depending on device requirements. Betavolt also asserts that it has plans to launch a 1-watt version of its atomic battery in 2025. The new BV100 is claimed to be a disruptive product on two counts. Firstly, a safe miniature atomic battery with 50 years of maintenance-free stamina is a breakthrough. Secondly, Betavolt claims it is the only company in the world with the technology to dope large-size diamond semiconductor materials, as used by the BV100. It is using its 4th Gen diamond semiconductor material here...

[T]he Betavolt BV100 is claimed to be safe for consumers and won't leak radiation even if subjected to gunshots or puncture... Betavolt's battery uses a nickel -63 isotope as the energy source, which decays to a stable isotope of copper. This, plus the diamond semiconductor material, helps the BV100 operate stably in environments ranging from -60 to 120 degrees Celsius, according to the firm...

Betavolt will be well aware of devices with a greater thirst for power and teases that it is investigating isotopes such as strontium- 90, promethium- 147, and deuterium to develop atomic energy batteries with higher power levels and even longer service lives — up to 230 years.
Thanks to long-time Slashdot reader [url)https://www.slashdot.org/~hackingbear]hackingbear[/url] for sharing the news.

Citar
Chinese-developed nuclear battery has a 50-year lifespan — Betavolt BV100 built with Nickel-63 isotope and diamond semiconductor material (https://www.tomshardware.com/pc-components/power-supplies/chinese-developed-nuclear-battery-has-a-50-year-lifespan)
The design uses China’s first diamond semiconductor material.

By Mark Tyson | 2024.01.13

(https://i.imgur.com/fRJI6LO.jpg)
Betavolt BV100 atomic battery | (Image credit: Betavolt)

Chinese company Betavolt has announced (https://www.betavolt.tech/359485-359485_645066.html) an atomic energy battery for consumers with a touted 50-year lifespan. The Betavolt BV100 will be the first product to launch using the firm’s new atomic battery technology, constructed using a nickel-63 isotope and diamond semiconductor (https://www.tomshardware.com/news/semiconductor-researchers-solve-diamond-wafer-slicing-challenges-with-lasers) material. Betavolt says its nuclear battery will target aerospace, AI devices (https://www.tomshardware.com/news/samsung-ai-npus-bixby-appliances-2024), medical, MEMS systems, intelligent sensors, small drones, and robots (https://www.tomshardware.com/tag/robots) – and may eventually mean manufacturers can sell smartphones that never need charging.

Buying an electronics product that can go without charging for 50 years would be amazing. But the BV100, which is in the pilot stage ahead of mass production, doesn’t offer a lot of power. This 15 x 15 x 5mm battery delivers 100 microwatts at 3 volts. The company says multiple BV100 batteries can be used together in series or parallel depending on device requirements, and Betavolt has plans to launch a 1-watt version of its atomic battery in 2025.

The new BV100 is claimed to be a disruptive product on two counts. Firstly, a safe miniature atomic battery with 50 years of maintenance-free stamina is a breakthrough. Secondly, Betavolt claims it is the only company in the world with the technology to dope large-size diamond semiconductor materials, as used by the BV100. The company is using its 4th gen diamond semiconductor material here.

In its press release, Betavolt says its atomic battery is very different from similarly described power cells developed by the US and USSR in the 1960s. It says that the old nuclear batteries were large, dangerous, hot, and expensive products. For example, some old-tech atomic batteries (https://en.wikipedia.org/wiki/Atomic_battery) used Plutonium as the radioactive power source. Meanwhile, the Betavolt BV100 is claimed to be safe for consumers and won’t leak radiation even if subjected to gunshots or puncture.

(https://i.imgur.com/6dXn7MZ.jpg)
Betavolt BV100 atomic battery (Image credit: Betavolt)

The new, improved levels of safety stem from the choice of materials. Betavolt’s battery uses a nickel-63 isotope as the energy source, which decays to a stable isotope of copper. This, plus the diamond semiconductor material, helps the BV100 operate stably in environments ranging from -60 to 120 degrees Celsius, according to the firm. Betavolt boasts that this battery technology is “way ahead” of European and American academic and commercial institutions.

How does Betavolt make this battery? We’ve already mentioned the essential materials, but the above diagram provides an excellent overview. The BV100 is made by “placing a 2-micron-thick nickel-63 sheet between two diamond semiconductor converters.” This construction relies on Betavolt’s “unique single-crystal diamond semiconductor that is just 10 microns thick.”

So, the current BV100 or its 1-watt successor scheduled for next year may not sound so impressive regarding peak power output. Betavolt will be well aware of devices with a greater thirst for power (https://www.tomshardware.com/reviews/intel-core-i9-13900ks-cpu-review) and teases that it is investigating isotopes such as strontium-90, promethium-147, and deuterium to develop atomic energy batteries with higher power levels and even longer service lives – up to 230 years.
Saludos.
Título: Re:STEM
Publicado por: Lem en Enero 15, 2024, 10:33:23 am
Ni reactores nucleares ni hostias. Sevillana innovando en lo que realmente nos importa a todos :biggrin:

https://myhixel.com

(https://i.imgur.com/YuTYS6X.png)
Título: Re:STEM
Publicado por: sudden and sharp en Enero 15, 2024, 12:10:39 pm
Ni reactores nucleares ni hostias. Sevillana innovando en lo que realmente nos importa a todos :biggrin:

https://myhixel.com

(https://i.imgur.com/YuTYS6X.png)









Luego os preguntaréis de dónde viene esa envídia histórica hacia nosotros. Pues, de nuestra buena... salud.   :biggrin:
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 23, 2024, 08:12:49 am
Citar
Lamborghini Licenses MIT's New High-Capacity, Fast-Charging Organic Battery Tech (https://hardware.slashdot.org/story/24/01/22/2034245/lamborghini-licenses-mits-new-high-capacity-fast-charging-organic-battery-tech)
Posted by BeauHD on Monday January 22, 2024 @07:02PM from the future-of-EV-batteries dept.

An anonymous reader quotes a report from TechRadar:
Citar
Thanks to new Massachusetts Institute of Technology (MIT) research (https://news.mit.edu/2024/cobalt-free-batteries-could-power-future-cars-0118), which was part-funded by Lamborghini, we could soon see the end of difficult-to-source and often problematic rare metal materials featuring in the batteries of future electric vehicles. The MIT study's aim was to replace cobalt and nickel, typically used as a cathode in today's lithium-ion battery technology, with organic materials that could be produced at a much lower cost. This would also reduce the impact on the planet and conduct electricity at similar rates as cobalt batteries. [...] The research, which has been running for six years, has culminated in a novel organic material that could be a direct replacement for cobalt and nickel. According to details recently released by MIT, this material consists of many layers of TAQ (bis-tetraaminobenzoquinone), an organic small molecule that contains three fused hexagonal rings.

It's a complicated subject for those not donning lab coats for a living, but these TAQ layers can extend outward in every direction, forming a structure similar to graphite. Within the molecules are chemical groups called quinones, which are the electron reservoirs, and amines, which help the material to form strong hydrogen bonds, which ensure they don't dissolve into the battery electrolyte (something that has previously blighted organic cathode compounds), thus extending the lifetime of the battery. It comes as no surprise that Lamborghini has licensed the patent on this technology (https://www.techradar.com/vehicle-tech/hybrid-electric-vehicles/the-future-of-ev-batteries-lamborghini-licenses-new-organic-fast-charging-battery-tech-and-it-could-trickle-down-to-cheaper-evs), seeing as it funded the research and has a certain Lanzador high performance electric vehicle in the pipeline.

Researchers say that tests of the material revealed that its conductivity and storage capacity were comparable to that of traditional cobalt-containing batteries. Also, batteries with a TAQ cathode can be charged and discharged faster than existing batteries, which could speed up the charging rate for electric vehicles. This speedy rate of charge and discharge could help give something like Lamborghini's Lanzador a performance edge, while super-fast charging capabilities will negate the need for lengthy charging stops -- something the Italian marque's discerning clientele will likely be opposed to. However, Lamborghini is also part of the wider Volkswagen Group and seeing that the primary materials needed to manufacture this type of cathode are already commercially available and produced in large quantities as commodity chemicals, we may see the battery tech filter down to more affordable EVs in the future.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Enero 30, 2024, 08:53:19 am
Citar
Neuralink Implants Brain Chip In First Human (https://science.slashdot.org/story/24/01/30/005213/neuralink-implants-brain-chip-in-first-human)
Posted by BeauHD on Tuesday January 30, 2024 @02:00AM from the so-far-so-good dept.

According to Neuralink founder Elon Musk, the first human received an implant from the brain-chip startup on Sunday (https://www.reuters.com/technology/neuralink-implants-brain-chip-first-human-musk-says-2024-01-29/) and is recovering well. "Initial results show promising neuron spike detection," Musk added (https://twitter.com/elonmusk/status/1752098683024220632?s=20). Reuters reports:
Citar
The U.S. Food and Drug Administration had given the company clearance last year to conduct its first trial to test its implant on humans. The startup's PRIME Study is a trial for its wireless brain-computer interface to evaluate the safety of the implant and surgical robot. The study will assess the functionality of the interface which enables people with quadriplegia, or paralysis of all four limbs, to control devices with their thoughts, according to the company's website.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 06, 2024, 23:15:09 pm
(https://i.imgur.com/wvQNjpL.jpeg) (https://www.youtube.com/watch?v=NrNjvIrCqII)
Sabine Hossenfelder | Google's AI Makes Stunning Progress with Logical Reasoning (https://www.youtube.com/watch?v=NrNjvIrCqII)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 10, 2024, 11:39:52 am
Citar
Fusion Research Facility's Final Tritium Experiments Yield New Energy Record (https://science.slashdot.org/story/24/02/10/0231255/fusion-research-facilitys-final-tritium-experiments-yield-new-energy-record)
Posted by BeauHD on Saturday February 10, 2024 @02:00AM from the historic-milestones dept.

schwit1 (https://slashdot.org/~schwit1) quotes a report from Phys.Org:
Citar
The Joint European Torus (JET), one of the world's largest and most powerful fusion machines, has demonstrated the ability to reliably generate fusion energy (https://phys.org/news/2024-02-fusion-facility-tritium-yield-energy.html), while simultaneously setting a world record in energy output. These notable accomplishments represent a significant milestone in the field of fusion science and engineering. In JET's final deuterium-tritium experiments (DTE3), high fusion power was consistently produced for five seconds, resulting in a ground-breaking record of 69 megajoules using a mere 0.2 milligrams of fuel.

JET is a tokamak, a design which uses powerful magnetic fields to confine a plasma in the shape of a doughnut. Most approaches to creating commercial fusion favor the use of two hydrogen variants -- deuterium and tritium. When deuterium and tritium fuse together they produce helium and vast amounts of energy, a reaction that will form the basis of future fusion powerplants. Dr. Fernanda Rimini, JET Senior Exploitation Manager, said, "We can reliably create fusion plasmas using the same fuel mixture to be used by commercial fusion energy powerplants, showcasing the advanced expertise developed over time."

Professor Ambrogio Fasoli, Program Manager (CEO) at EUROfusion, said, "Our successful demonstration of operational scenarios for future fusion machines like ITER and DEMO, validated by the new energy record, instill greater confidence in the development of fusion energy. Beyond setting a new record, we achieved things we've never done before and deepened our understanding of fusion physics." Dr. Emmanuel Joffrin, EUROfusion Tokamak Exploitation Task Force Leader from CEA, said, "Not only did we demonstrate how to soften the intense heat flowing from the plasma to the exhaust, we also showed in JET how we can get the plasma edge into a stable state thus preventing bursts of energy reaching the wall. Both techniques are intended to protect the integrity of the walls of future machines. This is the first time that we've ever been able to test those scenarios in a deuterium-tritium environment."
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 12, 2024, 08:40:48 am
Citar
Computer Simulations of Atlantic Ocean Currents Finds Collapse Could Happen in Our Lifetime (https://news.slashdot.org/story/24/02/11/2141215/computer-simulations-of-atlantic-ocean-currents-finds-collapse-could-happen-in-our-lifetime)
Posted by EditorDavid on Sunday February 11, 2024 @05:28PM from the current-catastrophes dept.

An anonymous reader shared this report from the Associated Press (https://apnews.com/article/atlantic-collapse-climate-change-abrupt-tipping-point-954f5b030b8510551ab7cd34b99e23d5):
Citar
An abrupt shutdown of Atlantic Ocean currents that could put large parts of Europe in a deep freeze is looking a bit more likely and closer than before as a new complex computer simulation finds a "cliff-like" tipping point looming in the future. A long-worried nightmare scenario, triggered by Greenland's ice sheet melting from global warming, still is at least decades away if not longer, but maybe not the centuries that it once seemed, a new study in Friday's Science Advances (https://www.science.org/journal/sciadv) finds.

The study, the first to use complex simulations and include multiple factors, uses a key measurement to track the strength of vital overall ocean circulation, which is slowing. A collapse of the current — called the Atlantic Meridional Overturning Circulation or AMOC — would change weather worldwide because it means a shutdown of one of key the climate and ocean forces of the planet. It would plunge northwestern European temperatures by 9 to 27 degrees (5 to 15 degrees Celsius) over the decades, extend Arctic ice much farther south, turn up the heat even more in the Southern Hemisphere, change global rainfall patterns and disrupt the Amazon, the study said. Other scientists said it would be a catastrophe that could cause worldwide food and water shortages.

"We are moving closer (to the collapse), but we we're not sure how much closer," said study lead author Rene van Westen, a climate scientist and oceanographer at Utrecht University in the Netherlands. "We are heading towards a tipping point." When this global weather calamity — grossly fictionalized in the movie "The Day After Tomorrow" — may happen is "the million-dollar question, which we unfortunately can't answer at the moment," van Westen said. He said it's likely a century away but still could happen in his lifetime. He just turned 30.

"It also depends on the rate of climate change (https://apnews.com/article/global-warming-climate-change-accelerating-worse-92facd6145ab9ab32281ff5d641517f0) we are inducing as humanity (https://apnews.com/article/carbon-dioxide-climate-change-china-india-aa25e5a4271aa45810c435280bb97879)," van Westen said.
Saludos.
Título: Re:STEM
Publicado por: el malo en Febrero 12, 2024, 10:31:38 am
Citar
Computer Simulations of Atlantic Ocean Currents Finds Collapse Could Happen in Our Lifetime (https://news.slashdot.org/story/24/02/11/2141215/computer-simulations-of-atlantic-ocean-currents-finds-collapse-could-happen-in-our-lifetime)
Posted by EditorDavid on Sunday February 11, 2024 @05:28PM from the current-catastrophes dept.

An anonymous reader shared this report from the Associated Press (https://apnews.com/article/atlantic-collapse-climate-change-abrupt-tipping-point-954f5b030b8510551ab7cd34b99e23d5):
Citar
An abrupt shutdown of Atlantic Ocean currents that could put large parts of Europe in a deep freeze is looking a bit more likely and closer than before as a new complex computer simulation finds a "cliff-like" tipping point looming in the future. A long-worried nightmare scenario, triggered by Greenland's ice sheet melting from global warming, still is at least decades away if not longer, but maybe not the centuries that it once seemed, a new study in Friday's Science Advances (https://www.science.org/journal/sciadv) finds.

The study, the first to use complex simulations and include multiple factors, uses a key measurement to track the strength of vital overall ocean circulation, which is slowing. A collapse of the current — called the Atlantic Meridional Overturning Circulation or AMOC — would change weather worldwide because it means a shutdown of one of key the climate and ocean forces of the planet. It would plunge northwestern European temperatures by 9 to 27 degrees (5 to 15 degrees Celsius) over the decades, extend Arctic ice much farther south, turn up the heat even more in the Southern Hemisphere, change global rainfall patterns and disrupt the Amazon, the study said. Other scientists said it would be a catastrophe that could cause worldwide food and water shortages.

"We are moving closer (to the collapse), but we we're not sure how much closer," said study lead author Rene van Westen, a climate scientist and oceanographer at Utrecht University in the Netherlands. "We are heading towards a tipping point." When this global weather calamity — grossly fictionalized in the movie "The Day After Tomorrow" — may happen is "the million-dollar question, which we unfortunately can't answer at the moment," van Westen said. He said it's likely a century away but still could happen in his lifetime. He just turned 30.

"It also depends on the rate of climate change (https://apnews.com/article/global-warming-climate-change-accelerating-worse-92facd6145ab9ab32281ff5d641517f0) we are inducing as humanity (https://apnews.com/article/carbon-dioxide-climate-change-china-india-aa25e5a4271aa45810c435280bb97879)," van Westen said.
Saludos.

¿Ya llega el colapso? ¿Pero el problema no era que el planeta iba a hervir? Estoy hasta la coronilla de estos catastrofistas de brocha gorda, y de que todo sea culpa de mi coche de gasolina o del vuelo barato de Ryanair de los hijos de mi vecino.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 18, 2024, 22:10:57 pm
(https://i.imgur.com/DsDThll.jpeg) (https://www.youtube.com/watch?v=HK6y8DAPN_0)
OpenAI | Introducing Sora — OpenAI’s text-to-video model (https://www.youtube.com/watch?v=HK6y8DAPN_0)

https://www.pressreader.com/spain/Cinco-Dias/20240217/page/34/textview (https://www.pressreader.com/spain/Cinco-Dias/20240217/page/34/textview)

OpenAI lanza Sora, una revolucionaria herramienta de vídeo con inteligencia artificial

(https://i.imgur.com/nB61irH.jpeg)

https://openai.com/sora (https://openai.com/sora)

Saludos.

P.D. Para comprender la relevancia del anuncio de Sora por parte de OpenAI es importante recordar que el vídeo Will Smith eating spaghetti (https://www.reddit.com/r/StableDiffusion/comments/1244h2c/will_smith_eating_spaghetti/) fue publicado en el subreddit r/StableDiffusion (https://www.reddit.com/r/StableDiffusion/) hace menos de un año, en concreto, el 23 de marzo de 2023.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 25, 2024, 23:14:20 pm
Citar
Scientists Create DVD-Sized Disk Storing 1 Petabit (125,000 Gigabytes) of Data (https://hardware.slashdot.org/story/24/02/25/2026232/scientists-create-dvd-sized-disk-storing-1-petabit-125000-gigabytes-of-data)
Posted by EditorDavid on Sunday February 25, 2024 @04:34PM from the disk-jockeying dept.

Popular Science points out that for encoding data, "optical disks almost always offer just a single, 2D layer — that reflective, silver underside."

"If you could boost a disk's number of available, encodable layers, however, you could hypothetically gain a massive amount of extra space..."
Citar
Researchers at the University of Shanghai for Science and Technology recently set out to do just that (https://www.popsci.com/technology/optical-disk-petabit/), and published the results earlier this week in the journal, Nature (https://www.nature.com/articles/s41586-023-06980-y). Using a 54-nanometer laser, the team managed to record a 100 layers of data onto an optical disk, with each tier separated by just 1 micrometer. The final result is an optical disk with a three-dimensional stack of data layers capable of holding a whopping 1 petabit (Pb) of information — that's equivalent to 125,000 gigabytes of data...

As Gizmodo (https://gizmodo.com/meet-the-super-dvd-scientists-develop-massive-1-petabi-1851272615) offers for reference, that same petabit of information would require roughly a six-and-a-half foot tall stack of HHD drives — if you tried to encode the same amount of data onto Blu-rays, you'd need around 10,000 blank ones to complete your (extremely inefficient) challenge.

To pull off their accomplishment, engineers needed to create an entirely new material for their optical disk's film... AIE-DDPR film utilizes a combination of specialized, photosensitive molecules (https://www.zmescience.com/science/news-science/optical-storage-device-petabit/) capable of absorbing photonic data at a nanoscale level, which is then encoded using a high-tech dual-laser array. Because AIE-DDPR is so incredibly transparent, designers could apply layer-upon-layer to an optical disk without worrying about degrading the overall data. This basically generated a 3D "box" for digitized information, thus exponentially raising the normal-sized disk's capacity.
Thanks to long-time Slashdot reader hackingbear (https://www.slashdot.org/~hackingbear) for sharing the news.
Saludos.
Título: Re:STEM
Publicado por: el malo en Febrero 26, 2024, 14:53:22 pm
Citar
Scientists Create DVD-Sized Disk Storing 1 Petabit (125,000 Gigabytes) of Data (https://hardware.slashdot.org/story/24/02/25/2026232/scientists-create-dvd-sized-disk-storing-1-petabit-125000-gigabytes-of-data)
Posted by EditorDavid on Sunday February 25, 2024 @04:34PM from the disk-jockeying dept.

Popular Science points out that for encoding data, "optical disks almost always offer just a single, 2D layer — that reflective, silver underside."

"If you could boost a disk's number of available, encodable layers, however, you could hypothetically gain a massive amount of extra space..."
Citar
Researchers at the University of Shanghai for Science and Technology recently set out to do just that (https://www.popsci.com/technology/optical-disk-petabit/), and published the results earlier this week in the journal, Nature (https://www.nature.com/articles/s41586-023-06980-y). Using a 54-nanometer laser, the team managed to record a 100 layers of data onto an optical disk, with each tier separated by just 1 micrometer. The final result is an optical disk with a three-dimensional stack of data layers capable of holding a whopping 1 petabit (Pb) of information — that's equivalent to 125,000 gigabytes of data...

As Gizmodo (https://gizmodo.com/meet-the-super-dvd-scientists-develop-massive-1-petabi-1851272615) offers for reference, that same petabit of information would require roughly a six-and-a-half foot tall stack of HHD drives — if you tried to encode the same amount of data onto Blu-rays, you'd need around 10,000 blank ones to complete your (extremely inefficient) challenge.

To pull off their accomplishment, engineers needed to create an entirely new material for their optical disk's film... AIE-DDPR film utilizes a combination of specialized, photosensitive molecules (https://www.zmescience.com/science/news-science/optical-storage-device-petabit/) capable of absorbing photonic data at a nanoscale level, which is then encoded using a high-tech dual-laser array. Because AIE-DDPR is so incredibly transparent, designers could apply layer-upon-layer to an optical disk without worrying about degrading the overall data. This basically generated a 3D "box" for digitized information, thus exponentially raising the normal-sized disk's capacity.
Thanks to long-time Slashdot reader hackingbear (https://www.slashdot.org/~hackingbear) for sharing the news.
Saludos.

Ahí falta un cero.

1 Pb = 1,024 Tb = 1,048,000 Gb


Edito:

El artículo dice "Petabit" no "Petabyte". Los números están bien.
Título: Re:STEM
Publicado por: Cadavre Exquis en Febrero 29, 2024, 22:14:09 pm
(https://i.imgur.com/5d4uTeB.png)
https://twitter.com/AlphaSignalAI/status/1762913814071402713

https://arxiv.org/abs/2402.17764

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 03, 2024, 21:54:01 pm
Citar
Hacia el control inteligente de los reactores de fusión nuclear ([url]https://francis.naukas.com/2024/02/26/hacia-el-control-inteligente-de-los-reactores-de-fusion-nuclear/[/url])

Por Francisco R. Villatoro, el 26 febrero, 2024. Categoría(s): Ciencia • Nature • Noticias • Physics • Science

([url]https://i.imgur.com/Iw5AWZt.jpeg[/url])

La construcción del reactor de fusión experimental ITER en Cadarache (Francia) debería finalizar en 2027. Mientras, se usan reactores más pequeños, como el reactor DIII-D del Centro Nacional de Fusión en San Diego, EEUU, para estudiar cómo optimizar los plasmas en ITER. Se publica en Nature un algoritmo de control inteligente basado en aprendizaje profundo por refuerzo para evitar la inestabilidad del plasma por el modo de rasgado neoclásico (NTM). Se ha controlado la inestabilidad asociada a la resonancia poloidal/toroidal 2/1 en un estado de DIII-D análogo al escenario de referencia de ITER (IBS); en este estado se producirá en ITER una potencia de fusión de 500 MW con una ganancia Q=10 durante 300 segundos. Este tipo de estudios podrían acelerar la operación de ITER para que alcance sus objetivos con éxito cuanto antes.

La ventaja del control mediante una inteligencia artificial es que se actúa antes de que ocurra la inestabilidad, en lugar de intentar mitigar su efecto una vez se ha producido. Para ello hay que predecir en tiempo real cuándo va a ocurrir, lo que raya lo imposible usando modelos teóricos (las simulaciones de los plasmas requieren supercomputadores). El aprendizaje con refuerzo descubre patrones en los datos de diagnóstico experimentales (obtenidos por espectroscopia magnética, de dispersión de Thomson y de recombinación por intercambio de carga, como muestra la figura a la izquierda), que permiten detectar la inestabilidad de rasgado 2/1 unos 300 milisegundos antes de que se produzca . Mediante un bucle realimentado (figura a la derecha) con un retraso de 25 milisegundos se controlan los actuadores que calientan el plasma con haces de átomos neutros y con ondas de radiofrecuencia usando la resonancia electrón-ciclotrón para evitar que se produzca la inestabilidad (figura en el centro).

La inestabilidad NTM es una de las más relevantes en la operación de un tokamak; sin embargo, hay muchas otras, cuyo control inteligente también será necesario estudiar en DIII-D. Además, el aprendizaje se ha basado en datos experimentales históricos de DIII-D, con lo que tendrá que ser repetido en otros reactores de fusión y con los datos futuros de ITER. El nuevo controlador es una prueba de concepto y queda mucho trabajo por hacer, pero todo apunta a que el control inteligente será usado en todos los futuros reactores de fusión comerciales. El artículo es Jaemin Seo, SangKyeun Kim, …, Egemen Kolemen, «Avoiding fusion plasma tearing instability with deep reinforcement learning,» Nature 626: 746-751 (21 Feb 2024), doi: [url]https://doi.org/10.1038/s41586-024-07024-9.[/url] ([url]https://doi.org/10.1038/s41586-024-07024-9.[/url]) A nivel divulgativo recomiendo la nota de prensa de «Engineers use AI to wrangle fusion power for the grid,» Princeton Plasma Physics Laboratory (PPPL), 21 Feb 2024 ([url]https://www.newswise.com/doescience/engineers-use-ai-to-wrangle-fusion-power-for-the-grid[/url]).

[PS 01 mar 2024] Por cierto, no se trata de la primera vez que el control inteligente se usa en reactores de fusión. Gracias, Masgüel, por el comentario. Ya se publicó en 2022 en Nature un artículo de DeepMind (Google) que usaba control inteligente con aprendizaje con refuerzo para controlar un reactor de fusión (el pequeño reactor suizo llamado TCV (Tokamak à configuration variable), que tiene un radio mayor de 0.88 m, un radio menor de 0.25 m, un campo magnético máximo de 1.43 T y una potencia calórica de 4.3 MW. El entrenamiento se realizó con un simulador 2D de dicho reactor, pero se demostró su buen funcionamiento con experimentos reales (Jonas Degrave, …, Demis Hassabis, Martin Riedmiller, «Magnetic control of tokamak plasmas through deep reinforcement learning,» Nature 602: 414-419 (16 Feb 2022), doi: [url]https://doi.org/10.1038/s41586-021-04301-9[/url] ([url]https://doi.org/10.1038/s41586-021-04301-9[/url])). Una estrategia similar (aprendizaje con un simulador) también se ha usado con el reactor coreano KSTAR (Korea Superconducting Tokamak Advanced Research), cuyo tamaño es similar a DIII-D (1.8 m, 0.5 m, 3.5 T y 14 MW), como se publicó en J. Seo, Y.-S. Na, …, Y.H. Lee, «Development of an operation trajectory design algorithm for control of multiple 0D parameters using deep reinforcement learning in KSTAR,» Nuclear Fusion 62: 086049 (07 Jul 2022), doi: [url]https://doi.org/10.1088/1741-4326/ac79be[/url] ([url]https://doi.org/10.1088/1741-4326/ac79be[/url])).

Y ya que estamos citando los antecedentes (que como siempre se adentran mucho en el pasado), también se publicó en Nature el uso de una inteligencia artificial con aprendizaje con refuerzo para predecir las inestabilidades del plasma (aunque sin control para evitar su aparición posterior). El aprendizaje se basó en datos experimentales de los reactores DIII-D (EEUU) y JET (Reino Unido): Julian Kates-Harbeck, Alexey Svyatkovskiy, William Tang, «Predicting disruptive instabilities in controlled fusion plasmas through deep learning,» Nature 568: 526-531 (17 Apr 2019), doi: [url]https://doi.org/10.1038/s41586-019-1116-4.[/url] ([url]https://doi.org/10.1038/s41586-019-1116-4.[/url]) Com es bien conocido, todo avance tiene gran número de antecedentes. Una revisión más profunda de la bibliografía está más allá de mis objetivos en esta pieza divulgativa. [/PS]

([url]https://i.imgur.com/dbfTRal.jpeg[/url])

El plasma de deuterio en los reactores de fusión está sometido a gran número de inestabilidades magnetohidrodinámicas. En el caso de ITER, estudiarlas con todo detalle requerirá unos diez años (entre 2027 y 2037) antes de que se pueda pasar a los estudios de la fusión inyectando tritio. Muchas de estas inestabilidades conducen a la disrupción del plasma, que provoca una pérdida rápida de energía y la terminación brusca de la descarga. Esta energía perdida del plasma se disipa en las paredes, bobinas, etc., del tokamak, lo que puede producir daños. Para minimizarlos, hay que limitar la densidad, la presión y la corriente máximas del plasma. Su control inteligente permitirá relajar estos límites, garantizar una presión óptima del plasma y maximizar la producción de energía útil.

En el nuevo artículo se ha estudiado a nivel experimental el control inteligente usando el pequeño reactor de fusión DIII-D, el mayor de EEUU; este tokamak tiene un radio mayor de 1.67 m, un radio menor de 0.67 m, un campo magnético toroidal máximo de 2.2 T y una potencia calórica de 23 MW. Estos valores se pueden comparar con el británico JET (2.96 m, 1.25 m, 3.45 T y 38 MW) o el futuro ITER (6.20 m, 2.00 m, 12 T y 320 MW). Estos pequeños reactores experimentales son muy útiles para muchos estudios de plasmas, mientras no funcione ITER. Cuando ITER inyecte su primer plasma, muchos de estos pequeños reactores empezarán a ir finalizando su periodo de funcionamiento y acabarán siendo desmantelados. Por ejemplo, el británico JET (Joint European Torus) finalizó sus operaciones en diciembre de 2023; hay una movilización científica para que continúe en funcionamiento, pero el gobierno británico hace oídos sordos.

([url]https://i.imgur.com/qeBJEt8.jpeg[/url])

El algoritmo de aprendizaje por refuerzo recuerda a los que usan en robótica móvil para evitar obstáculos (la inestabilidad de rasgado sería el obstáculo a evitar). Las inestabilidades de rasgado m/n están asociadas a la resonancia entre modos poloidales y toroidales con números m y n, respectivamente; las más relevantes son el rasgado resistivo 1/1 (RTM) y el neoclásico 2/1 (NTM). Esta última limita la presión del plasma porque su origen es la llamada corriente de bootstrap, que se produce de forma espontánea cuando existe un gradiente de presión.

La arquitectura de la red de neuronas artificiales profunda (DNN) usada se muestra en la figura. La entrada comprende los datos de diagnóstico experimentales (curvas unidimensionales asociadas a la espectroscopia magnética, de dispersión de Thomson y de recombinación por intercambio de carga) y el estado de los actuadores (que calientan del plasma). La salida es la presión normalizada del plasma (βN) y la rasgabilidad T (tearability). Durante el entrenamiento se ha usado una función de recompensa que usa un umbral k de rasgabilidad, que se fija en 0.2, 0.5, o 0.7 en este trabajo. La función de recompensa es R(βN, T; k) = βN > 0,  si T<k, para maximizar la presión del plasma (esencial para una generación eficiente de energía de fusión). Para evitar el rasgado se penaliza con una recompensa negativa R(βN, T; k) = k − T < 0, si k > T. En futuros estudios que consideren otras inestabilidades del plasma habrá que usar una función de recompensa más complicada, que tenga en cuenta otros factores.

([url]https://i.imgur.com/8fj4Vnp.jpeg[/url])

El funcionamiento básico del algoritmo de control inteligente se ilustra en esta figura (obtenida mediante simulaciones por ordenador). Sin el algoritmo de control inteligente (curva negra a la izquierda), cuando la presión supera cierto límite se produce la inestabilidad NTM y la disrupción posterior del plasma. Gracias al control inteligente (curva azul) se controla el gradiente de la presión y la rasgabilidad, que oscilan entre ciertos márgenes evitando toda inestabilidad (que también puede aparecer cuando la presión baja demasiado, debido a la presencia de un gradiente de la presión demasiado negativo).

([url]https://i.imgur.com/ase8ySs.jpeg[/url])

Esta figura muestra datos reales de tres descargas experimentales: 193266 (color amarillo) es una descarga estable como referencia con un algoritmo de control realimentado estándar, 193273 (color negro) es una descarga inestable como referencia también con un algoritmo de control estándar y 193280 (color azul) es una cargada controlada por la inteligencia artificial. Se muestra la corriente del plasma (en MA, megaamperios), la potencia del plasma (en MW, megavatios), la triangularidad poloidal (factor geométrico ([url]http://fusionwiki.ciemat.es/wiki/Triangularity[/url]) adimensional que mide la forma triangular de la sección poloidal del plasma), las fluctuaciones magnéticas (en G, gauss) y la presión normalizada del plasma. En la descarga estable 193266 el algoritmo de control convencional tenía por objetivo βN = 1.7, mientras que en la descarga inestable 193273 el objetivo era βN = 2.3; demasiado, pues a los 2.6 segundos se produjo la inestabilidad de rasgado que llevó a la disrupción en 3.1 segundos. El control inteligente (con k  = 0.5) logra que la descarga 193280 evite la inestabilidad logrando altas presiones mayores que las obtenidas en la descarga estable.

([url]https://i.imgur.com/ZhcEEgL.jpeg[/url])

El umbral k de rasgabilidad tiene que ser suficiente para evitar la inestabilidad. Esta figura muestra que para k = 0.2 (curva negra) el algoritmo de control mantuvo una baja rasgabilidad hasta los 5 segundos, pero se volvió inestable y acabó en una disrupción a los 5.5 s. El análisis posterior mostró que la inteligencia artificial predijo de forma correcta la inestabilidad, pero como la potencia del haz era demasiada baja, el mecanismo de actuación no pudo reducirla más y fue incapaz de evitarla. Para k = 0.5 (curva azul)  y k = 0.7 (curva roja) el algoritmo de control inteligente logró evitar la inestabilidad con éxito. Como muestra la curva de presión normalizada, el mejor resultado se ha obtenido para k = 0.5. Los autores del artículo aclaran que no han intentado determinar el valor óptimo de este umbral, que será objeto de futuros estudios.

En resumen, un artículo muy interesante que nos muestra que el estado del arte en el control de los plasmas en reactores de fusión (experimentales) pasa por usar técnicas de inteligencia artificial y aprendizaje profundo basado en redes de neuronas artificiales. Se ha logrado controlar una sola inestabilidad, pero no parece que haya obstrucciones a extender este control a muchas otras. El uso del control inteligente en ITER nos mostrará si esta tecnología acabará siendo el estándar en los futuros reactores de fusión experimentales (que llegarán en el último cuarto de este siglo). Pero siendo el siglo XXI el siglo de la inteligencia artificial, yo no tengo ninguna duda de ello.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 09, 2024, 08:29:02 am
Citar
New 'Water Batteries' Are Cheaper, Recyclable, And Won't Explode (https://hardware.slashdot.org/story/24/03/07/0013212/new-water-batteries-are-cheaper-recyclable-and-wont-explode)
Posted by BeauHD on Thursday March 07, 2024 @02:00AM from the new-and-shiny dept.

Clare Watson reports via ScienceAlert:
Citar
By replacing the hazardous chemical electrolytes used in commercial batteries with water, scientists have developed a recyclable 'water battery' (https://www.sciencealert.com/new-water-batteries-are-cheaper-recyclable-and-wont-explode) -- and solved key issues with the emerging technology, which could be a safer and greener alternative. 'Water batteries' are formally known as aqueous metal-ion batteries. These devices use metals such as magnesium or zinc, which are cheaper to assemble and less toxic than the materials currently used in other kinds of batteries.

Batteries store energy by creating a flow of electrons that move from the positive end of the battery (the cathode) to the negative end (the anode). They expend energy when electrons flow the opposite way. The fluid in the battery is there to shuttle electrons back and forth between both ends. In a water battery, the electrolytic fluid is water with a few added salts, instead of something like sulfuric acid or lithium salt. Crucially, the team behind this latest advancement came up with a way to prevent these water batteries from short-circuiting. This happens when tiny spiky metallic growths called dendrites form on the metal anode inside a battery, busting through battery compartments. [...]

To inhibit this, the researchers coated the zinc anode of the battery with bismuth metal, which oxidizes to form rust. This creates a protective layer that stops dendrites from forming. The feature also helps the prototype water batteries last longer, retaining more than 85 percent of their capacity after 500 cycles, the researchers' experiments showed. According to Royce Kurmelovs at The Guardian, the team has so far developed water-based prototypes of coin-sized batteries used in clocks, as well as cylindrical batteries similar to AA or AAA batteries. The team is working to improve the energy density of their water batteries, to make them comparable to the compact lithium-ion batteries found inside pocket-sized devices. Magnesium is their preferred material, lighter than zinc with a greater potential energy density. [I​]f magnesium-ion batteries can be commercialized, the technology could replace bulky lead-acid batteries within a few years.
The study has been published in the journal Advanced Materials (https://doi.org/10.1002/adma.202400237).
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 21, 2024, 07:46:08 am
Citar
Neuralink Shows First Brain-Chip Patient Playing Online Chess Using His Mind (https://science.slashdot.org/story/24/03/21/0419206/neuralink-shows-first-brain-chip-patient-playing-online-chess-using-his-mind)
Posted by BeauHD on Thursday March 21, 2024 @03:00AM from the mind-blowing dept.

Neuralink, the brain-chip startup founded by Elon Musk, showed (https://twitter.com/neuralink/status/1770563939413496146) its first patient using his mind to play online chess (https://www.reuters.com/business/healthcare-pharmaceuticals/neuralink-shows-first-brain-chip-patient-playing-online-chess-2024-03-21/). Reuters reports:
Citar
Noland Arbaugh, the 29-year-old patient who was paralyzed below the shoulder after a diving accident, played chess on his laptop and moved the cursor using the Neuralink device. The implant seeks to enable people to control a computer cursor or keyboard using only their thoughts. Arbaugh had received an implant from the company in January and could control a computer mouse using his thoughts, Musk said last month.

"The surgery was super easy," Arbaugh said in the video streamed on Musk's social media platform X, referring to the implant procedure. "I literally was released from the hospital a day later. I have no cognitive impairments. I had basically given up playing that game," Arbaugh said, referring to the game Civilization VI, "you all (Neuralink) gave me the ability to do that again and played for 8 hours straight."

Elaborating on his experience with the new technology, Arbaugh said that it is "not perfect" and they "have run into some issues." "I don't want people to think that this is the end of the journey, there's still a lot of work to be done, but it has already changed my life," he added.
(https://i.imgur.com/rfIOEla.jpeg) (https://www.youtube.com/watch?v=ZzNHxC96rDE)
Neuralink | Neuralink Live Update - March 2024 (https://www.youtube.com/watch?v=ZzNHxC96rDE)

Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 30, 2024, 21:07:08 pm
Citar
Researchers Develop New Material That Converts CO2 into Methanol Using Sunlight (https://science.slashdot.org/story/24/03/30/049239/researchers-develop-new-material-that-converts-co2-into-methanol-using-sunlight)
Posted by EditorDavid on Saturday March 30, 2024 @01:34PM from the fun-with-photocatalysis dept.

"Researchers have successfully transformed CO2 into methanol," reports SciTechDaily (https://scitechdaily.com/sunlight-to-methanol-revolutionary-co2-conversion-achieved-with-copper-and-carbon-nitride/), "by shining sunlight on single atoms of copper deposited on a light-activated material, a discovery that paves the way for creating new green fuels."
Citar
Tara LeMercier, a PhD student who carried out the experimental work at the University of Nottingham, School of Chemistry, said: "We measured the current generated by light and used it as a criterion to judge the quality of the catalyst. Even without copper, the new form of carbon nitride is 44 times more active than traditional carbon nitride. However, to our surprise, the addition of only 1 mg of copper per 1 g of carbon nitride quadrupled this efficiency. Most importantly the selectivity changed from methane, another greenhouse gas, to methanol, a valuable green fuel."

Professor Andrei Khlobystov, School of Chemistry, University of Nottingham, said: "Carbon dioxide valorization holds the key for achieving the net-zero ambition of the UK. It is vitally important to ensure the sustainability of our catalyst materials for this important reaction. A big advantage of the new catalyst is that it consists of sustainable elements — carbon, nitrogen, and copper — all highly abundant on our planet." This invention represents a significant step towards a deep understanding of photocatalytic materials in CO2 conversion. It opens a pathway for creating highly selective and tuneable catalysts where the desired product could be dialed up by controlling the catalyst at the nanoscale.
"The research has been published in the Sustainable Energy & Fuels journal of the Royal Society of Chemistry (https://doi.org/10.1039/D4SE00028E)." Thanks to long-time Slashdot reader Baron_Yam (https://www.slashdot.org/~Baron_Yam) for sharing the article.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Marzo 31, 2024, 08:59:55 am
Citar
Method identified to double computer processing speeds (https://news.ucr.edu/articles/2024/02/21/method-identified-double-computer-processing-speeds)

David Danelski · 2024.03.21

(https://i.imgur.com/tzZpuLy.jpeg)

Imagine doubling the processing power of your smartphone, tablet, personal computer, or server using the existing hardware already in these devices.

Hung-Wei Tseng (https://profiles.ucr.edu/app/home/profile/htseng), a UC Riverside associate professor of electrical and computer engineering, has laid out a paradigm shift in computer architecture to do just that in a recent paper titled, “Simultaneous and Heterogeneous Multithreading (https://dl.acm.org/doi/10.1145/3613424.3614285)”.

(https://i.imgur.com/chxa6ts.jpeg)
Hung-Wei Tseng

Tseng explained that today’s computer devices increasingly have graphics processing units (GPUs), hardware accelerators for artificial intelligence (AI) and machine learning (ML), or digital signal processing units as essential components. These components process information separately, moving information from one processing unit to the next, which in effect creates a bottleneck.

In their paper, Tseng and UCR computer science graduate student Kuan-Chieh Hsu introduce what they call “simultaneous and heterogeneous multithreading” or SHMT. They describe their development of a proposed SHMT framework on an embedded system platform that simultaneously uses a multi-core ARM processor, an NVIDIA GPU, and a Tensor Processing Unit hardware accelerator.

The system achieved a 1.96 times speedup and a 51% reduction in energy consumption.

“You don’t have to add new processors because you already have them,” Tseng said.

The implications are huge.

Simultaneous use of existing processing components could reduce computer hardware costs while also reducing carbon emissions from the energy produced to keep servers running in warehouse-size data processing centers. It also could reduce the need for scarce freshwater used to keep servers cool.

Tseng’s paper, however, cautions that further investigation is needed to answer several questions about system implementation, hardware support, code optimization, and what kind of applications stand to benefit the most, among other issues.

The paper was presented at the 56th Annual IEEE/ACM International Symposium on Microarchitecture held in October in Toronto, Canada. The paper garnered recognition from Tseng’s professional peers in the Institute of Electrical and Electronics Engineers, or IEEE, who selected it as one of 12 papers included in the group’s “Top Picks from the Computer Architecture Conferences” issue to be published this coming summer.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 03, 2024, 23:14:19 pm
Citar
Microsoft and Quantinuum Say They've Ushered in the Next Era of Quantum Computing (https://tech.slashdot.org/story/24/04/03/1338223/microsoft-and-quantinuum-say-theyve-ushered-in-the-next-era-of-quantum-computing)
Posted by msmash on Wednesday April 03, 2024 @11:20AM from the moving-forward dept.

Microsoft and Quantinuum today announced a major breakthrough in quantum error correction. Using Quantinuum's ion-trap hardware and Microsoft's new qubit-virtualization system, the team was able to run more than 14,000 experiments without a single error (https://techcrunch.com/2024/04/03/microsoft-and-quantinuum-say-theyve-ushered-in-the-next-era-of-quantum-computing/). From a report:
Citar
This new system also allowed the team to check the logical qubits and correct any errors it encountered without destroying the logical qubits. This, the two companies say, has now moved the state-of-the-art of quantum computing out of what has typically been dubbed the era of Noisy Intermediate Scale Quantum (NISQ) computers.

"Noisy" because even the smallest changes in the environment can lead a quantum system to essentially become random (or "decohere"), and "intermediate scale" because the current generation of quantum computers is still limited to just over a thousand qubits at best. A qubit is the fundamental unit of computing in quantum systems, analogous to a bit in a classic computer, but each qubit can be in multiple states at the same time and doesn't fall into a specific position until measured, which underlies the potential of quantum to deliver a huge leap in computing power.

It doesn't matter how many qubits you have, though, if you barely have time to run a basic algorithm before the system becomes too noisy to get a useful result -- or any result at all. Combining several different techniques, the team was able to run thousands of experiments with virtually no errors. That involved quite a bit of preparation and pre-selecting systems that already looked to be in good shape for a successful run, but still, that's a massive improvement from where the industry was just a short while ago.
Further reading: Microsoft blog (https://cloudblogs.microsoft.com/quantum/2024/04/03/how-microsoft-and-quantinuum-achieved-reliable-quantum-computing/).
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 05, 2024, 08:31:26 am
Citar
Groundbreaking Trial To Grow 'Mini Liver' From Patient's Own Lymph Node (https://science.slashdot.org/story/24/04/04/025249/groundbreaking-trial-to-grow-mini-liver-from-patients-own-lymph-node)
Posted by BeauHD on Wednesday April 03, 2024 @11:30PM from the one-of-a-kind-trials dept.

An anonymous reader quotes a report from InterestingEngineering:
Citar
A Pittsburgh-based biotech company has started a one-of-a-kind trial in a patient with a failing liver. Their goal is to grow a functional second liver within the patient's body (https://interestingengineering.com/science/cell-therapy-turns-lymph-node-into-liver) -- something never achieved before. If effective, it might be a life-saving therapy for those who require liver transplants but have to wait months for a compatible donor organ. LyGenesis is currently carrying out a trial in only one patient with end-stage liver disease (ESLD) to test the efficacy of their allogenic regenerative cell therapy. As per Nature, the experimental procedure was conducted in Houston on March 25. The report also states that the patient is "recovering well" after receiving the treatment. However, the formation of the new liver-like organ in the lymph node may take several months. Moreover, the individual will be kept on immunosuppressive drugs to prevent any initial rejection of the donor cells. The physicians will continue to monitor the patient's health closely.

In this trial, scientists prepared donated hepatocyte cells for transplantation by suspending them in a solution. These cells were then transplanted into the patient's upper abdominal lymph nodes, which are tiny bean-shaped structures. These structures are an essential immune system component and filter waste from the body. Apart from the abdomen, lymph nodes are also found in the neck and chest. The team opted for a minimally invasive approach to inject the cells into the patient's lymph node via a catheter in the neck. "The lymph nodes then act as in vivo bioreactors, helping the hepatocytes to engraft, proliferate, and generate functional ectopic liver tissue," the press release noted (https://www.lygenesis.com/media/press-releases/lygenesis-announces-first-patient-dosed-in-its-phase-2a-clinical-trial-of-a-first-in-class-regenerative-cell-therapy-for-patients-with-end-stage-liver-disease/). In simplest terms, these cells have the ability to multiply over the next several months. In a person with a failing liver, lymph nodes might operate as a second liver-like organ.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 08, 2024, 08:01:40 am
https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html (https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html)

(https://i.imgur.com/mQRP3Gg.jpeg)

Saludos.
Título: Re:STEM
Publicado por: Saturio en Abril 08, 2024, 08:38:36 am
https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html (https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html)

(https://i.imgur.com/mQRP3Gg.jpeg)

Saludos.

No sé que tiene que ver este sistema de almacenamiento con la carga de miles de coches a la vez.
Título: Re:STEM
Publicado por: el malo en Abril 08, 2024, 13:02:39 pm
https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html (https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html)

(https://i.imgur.com/mQRP3Gg.jpeg)

Saludos.

No sé que tiene que ver este sistema de almacenamiento con la carga de miles de coches a la vez.

Imaginemos que ese edificio se compone de cientos de torres independientes agrupadas para formar un cubo. Cada torre es un peso que almacena energia y esta conectada a una salida de corriente independiente.

Se podrian cargar a la vez tantos coches como torres haya, sin dependencia de la red electrica ni de picos de tension.

Espero que tenga sentido.

Disculpen las tildes, teclado ingles.
Título: Re:STEM
Publicado por: Saturio en Abril 08, 2024, 14:43:00 pm
https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html (https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html)

(https://i.imgur.com/mQRP3Gg.jpeg)

Saludos.

No sé que tiene que ver este sistema de almacenamiento con la carga de miles de coches a la vez.

Imaginemos que see edificio se compone de cientos de torres independientes agrupadas para formar un cubo. Cada torre es un peso que almacena energia y esta conectada a una salida de corriente independiente.

Se podrian cargar a la vez tantos coches como torres haya, sin dependencia de la red electrica ni de picos de tension.

Espero que tenga sentido.

Disculpen las tildes, teclado ingles.

Ya sí, pero no creo que sea la idea, ¿no?. La logística (de los coches) no tendría sentido.
Lo que veo es una noticia sobre un gran sistema de almacenamiento, cuya utilidad sería entrar en red como lo hace cualquier instalación productora cuando se necesitase (o en un mercado abierto cuando el precio fuese interesante) y una vez que los electrones estén en la red que se usen donde esté la demanda, que ha sido redirigida por un periodista a hablar de coches eléctricos y de una posible solución al problema de carga.

No sé, es que producirías la energía donde fuese, la transportarías a la batería y luego tendrías que llevar miles de coches allí (o cerca) a cargarlos.
Lo normal es que esos cubos se pongan justo al lado de sitios donde se produce la energía, por ejemplo un gran parque eólico o instalación fotovoltaica (del estilo de las que tienen los chinos) y que acumulen mientras no vendan.
Título: Re:STEM
Publicado por: el malo en Abril 08, 2024, 15:08:49 pm
https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html (https://www.eleconomista.es/energia/noticias/12718661/03/24/la-solucion-china-para-que-los-coches-electricos-se-carguen-todos-a-la-vez-edificio-bateria-que-usa-la-gravedad.html)

(https://i.imgur.com/mQRP3Gg.jpeg)

Saludos.

No sé que tiene que ver este sistema de almacenamiento con la carga de miles de coches a la vez.

Imaginemos que see edificio se compone de cientos de torres independientes agrupadas para formar un cubo. Cada torre es un peso que almacena energia y esta conectada a una salida de corriente independiente.

Se podrian cargar a la vez tantos coches como torres haya, sin dependencia de la red electrica ni de picos de tension.

Espero que tenga sentido.

Disculpen las tildes, teclado ingles.

Ya sí, pero no creo que sea la idea, ¿no?. La logística (de los coches) no tendría sentido.
Lo que veo es una noticia sobre un gran sistema de almacenamiento, cuya utilidad sería entrar en red como lo hace cualquier instalación productora cuando se necesitase (o en un mercado abierto cuando el precio fuese interesante) y una vez que los electrones estén en la red que se usen donde esté la demanda, que ha sido redirigida por un periodista a hablar de coches eléctricos y de una posible solución al problema de carga.

No sé, es que producirías la energía donde fuese, la transportarías a la batería y luego tendrías que llevar miles de coches allí (o cerca) a cargarlos.
Lo normal es que esos cubos se pongan justo al lado de sitios donde se produce la energía, por ejemplo un gran parque eólico o instalación fotovoltaica (del estilo de las que tienen los chinos) y que acumulen mientras no vendan.

No necesariamente. El cubo se puede construir al lado de una autopista o de cualquier vía con mucho tránsito de vehículos y la energía puede llegar por cables de alta tensión desde el parque eólico más cercano (a kilómetros de allí).
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 26, 2024, 07:34:16 am
Citar
TSMC Unveils 1.6nm Process Technology With Backside Power Delivery (https://hardware.slashdot.org/story/24/04/25/2231235/tsmc-unveils-16nm-process-technology-with-backside-power-delivery)
Posted by BeauHD on Thursday April 25, 2024 @11:30PM from the new-and-shiny dept.

An anonymous reader quotes a report from Tom's Hardware:
Citar
TSMC announced its leading-edge 1.6nm-class process technology today, a new A16 manufacturing process that will be the company's first Angstrom-class production node and promises to outperform its predecessor, N2P, by a significant margin. The technology's most important innovation will be its backside power delivery network (BSPDN). Just like TSMC's 2nm-class nodes (N2, N2P, and N2X), the company's 1.6nm-class fabrication process will rely on gate-all-around (GAA) nanosheet transistors, but unlike the current and next-generation nodes, this one uses backside power delivery dubbed Super Power Rail (https://www.tomshardware.com/tech-industry/tsmc-unveils-16nm-process-technology-with-backside-power-delivery-rivals-intels-competing-design). Transistor and BSPDN innovations enable tangible performance and efficiency improvements compared to TSMC's N2P: the new node promises an up to 10% higher clock rate at the same voltage and a 15%-20% lower power consumption at the same frequency and complexity. In addition, the new technology could enable 7%-10% higher transistor density, depending on the actual design.

The most important innovation of TSMC's A16 process, which was unveiled at the company's North American Technology Symposium 2024 (https://www.tsmc.com/static/english/campaign/Symposium2024/index.htm), is the introduction of the Super Power Rail (SPR), a sophisticated backside power delivery network (BSPDN). This technology is tailored specifically for AI and HPC processors that tend to have both complex signal wiring and dense power delivery networks. Backside power delivery will be implemented into many upcoming process technologies as it allows for an increase in transistor density and improved power delivery, which affects performance. Meanwhile, there are several ways to implement a BSPDN. TSMC's Super Power Rail plugs the backside power delivery network to each transistor's source and drain using a special contact that also reduces resistance to get the maximum performance and power efficiency possible. From a production perspective, this is one of the most complex BSPDN implementations and is more complex than Intel's Power Via.
Volume production of A16 is slated for the second half of 2026. "Therefore, actual A16-made products will likely debut in 2027," notes the report. "This timeline positions A16 to potentially compete with Intel's 14A node, which will be Intel's most advanced node at the time."
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Abril 27, 2024, 19:36:36 pm
Citar
Two Lifeforms Merge Into One Organism For First Time In a Billion Years (https://science.slashdot.org/story/24/04/27/0429216/two-lifeforms-merge-into-one-organism-for-first-time-in-a-billion-years)
Posted by EditorDavid on Saturday April 27, 2024 @12:34PM from the one-plus-one-equals-one dept.

"For the first time in at least a billion years, two lifeforms have merged into a single organism," reports the Independent (https://www.independent.co.uk/news/science/algae-evolution-agriculture-plant-history-b2535143.html):
Citar
The process, called primary endosymbiosis, has only happened twice in the history of the Earth, with the first time giving rise to all complex life as we know it through mitochondria. The second time that it happened saw the emergence of plants. Now, an international team of scientists have observed the evolutionary event happening between a species of algae commonly found in the ocean and a bacterium...

The process involves the algae engulfing the bacterium and providing it with nutrients, energy and protection in return for functions that it could not previously perform — in this instance, the ability to "fix" nitrogen from the air. The algae then incorporates the bacterium as an internal organ called an organelle, which becomes vital to the host's ability to function.

The researchers from the U.S. and Japan who made the discovery said it will offer new insights into the process of evolution, while also holding the potential to fundamentally change agriculture. "This system is a new perspective on nitrogen fixation, and it might provide clues into how such an organelle could be engineered into crop plants," said Dr Coale.
Two papers detailing the research were published in the scientific journals Science (https://www.science.org/doi/10.1126/science.adk1075) and Cell (https://www.cell.com/cell/pdf/S0092-8674(24)00182-X.pdf).

Thanks to Slashdot reader fjo3 (https://www.slashdot.org/~fjo3) for sharing the news.
Saludos.
Título: Re:STEM
Publicado por: Cadavre Exquis en Mayo 01, 2024, 15:55:49 pm
Citar
China Launches World's Largest Electric Container Ship (https://hardware.slashdot.org/story/24/04/30/2243243/china-launches-worlds-largest-electric-container-ship)
Posted by BeauHD on Wednesday May 01, 2024 @06:00AM from the green-transportation dept.

AmiMoJo (https://slashdot.org/~AmiMoJo) shares a report from Tech Times:
Citar
China has reached a major landmark in green transportation with the launch of the world's largest fully electric container ship (https://www.techtimes.com/articles/304092/20240429/china-launches-worlds-largest-electric-container-ship.htm). Developed and manufactured by China Ocean Shipping Group (Cosco), the vessel is now operating a regular service route between Shanghai and Nanjing, aiming to reduce emissions significantly along its journey. The Greenwater 01, an all-electric container ship, is positioning itself to be a shipping industry pioneer. Equipped with a main battery exceeding 50,000 kilowatt-hours, the vessel can accommodate additional battery boxes for longer voyages. These battery boxes, each containing 1,600 kilowatt-hours of electricity and similar in size to standard 20-foot containers, provide flexibility in extending the ship's travel range. With 24 battery boxes onboard, the Greenwater 01 can complete a journey consuming 80,000 kilowatt-hours of electricity. This is equivalent to saving 15 tons of fuel compared to a standard container ship, highlighting the efficiency of electric propulsion systems.
According to Cosco, the vessel can reduce CO2 emissions by 2,918 tons per year, which is equivalent to taking 2,035 family cars off the road or planting 160,000 trees.
Saludos.
SimplePortal 2.3.3 © 2008-2010, SimplePortal