* Blog


* Últimos mensajes


* Temas mas recientes


Autor Tema: STEM  (Leído 99733 veces)

0 Usuarios y 2 Visitantes están viendo este tema.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41028
  • Mensajes: 8413
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
STEM
« en: Enero 04, 2021, 18:18:14 pm »
Por aquello de que comenzamos una nueva década del siglo xxi en la que tiene pinta que los avances científicos y tecnológicos de todo tipo se van a ir sucediendo a una velocidad vertiginosa, me he animado a crear un nuevo hilo en el que postear aquellas noticias relacionadas con STEM (Science, technology, engineering, and mathematics)

En este hilo deberían tener cabida todas aquellas noticias relacionadas con avances: científicos, tencnológicos, en ingeniería y en matemáticas que no encajen en otros hilos más específicos como puedan ser el de Coches eléctricos o en otros subforeos como el de La energía.

Saludos.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41028
  • Mensajes: 8413
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #1 en: Enero 04, 2021, 18:18:54 pm »
Aunque se trate de una noticia del año pasado (y, por tanto, de la década anterior) para ir abriendo boca les dejo con uno de los grandes avances de 2020 que ha sido, sin duda, AlphaFold 2 una IA desarrollada por DeepMind que ha logrado resolver un problema que llevaba de cabeza a los investigadores desde hace 50 años y en el que los avances, hasta ahora, habían sido muy lentos y penosos.

En palabras del profesor John Moult, uno de los científicos que ha dedicado una gran parte de su vida a resolver el problema y que partició en la creación del concurso CASP (Critical Assessment of protein Structure Prediction) con el fin de espolear a la comunidad científica para resolver el problema:

Citar
We have been stuck on this one problem – how do proteins fold up – for nearly 50 years. To see DeepMind produce a solution for this, having worked personally on this problem for so long and after so many stops and starts, wondering if we’d ever get there, is a very special moment.

Les dejo con la entrada en el blog de DeepMind en el que explican por encima el logro:

Citar
AlphaFold: a solution to a 50-year-old grand challenge in biology
AUTHORS: The AlphaFold team | 30 NOV 2020


Proteins are essential to life, supporting practically all its functions. They are large complex molecules, made up of chains of amino acids, and what a protein does largely depends on its unique 3D structure. Figuring out what shapes proteins fold into is known as the “protein folding problem”, and has stood as a grand challenge in biology for the past 50 years. In a major scientific advance, the latest version of our AI system AlphaFold has been recognised as a solution to this grand challenge by the organisers of the biennial Critical Assessment of protein Structure Prediction (CASP). This breakthrough demonstrates the impact AI can have on scientific discovery and its potential to dramatically accelerate progress in some of the most fundamental fields that explain and shape our world.

[...]

Y un par de vídeos de dos youtubers españoles que creo que ayudan a entender la importancia del avance desde dos puntos de vista:

Desde el de la biología


Desde el del Machine Learning


Saludos.

Maloserá

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 1728
  • -Recibidas: 7300
  • Mensajes: 727
  • Nivel: 81
  • Maloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importa
    • Ver Perfil
Re:STEM
« Respuesta #2 en: Enero 04, 2021, 18:48:14 pm »
Buena idea. Dejo una lista de los artículos del último especial trimestral de tecnología de The Economist, y los artículos de tecnología del último semanal Si hay interés por alguno, dime cual/es y los copio.

Del especial trimestral
Reaching into other worlds / Virtual realities
TECHNOLOGY QUARTERLY - OCT 3RD 2020

Virtual realities: Computer-generated realities are becoming ubiquitous
Simulation: Virtual environments are being used everywhere
Hardware: Headset technology is cheaper and better than ever
Health care: Health care is already benefiting from VR
Brain scan: A novelist’s vision of the virtual world has inspired an industry
The future: The Metaverse is coming

Del último semanal
Science & technology

Covid-19: Variations on a theme
Toxicology: Double indemnity
Recycling: From Clochemerle to a compost heap
'Es enfermizo estar bien adaptado a una sociedad profundamente enferma.'
-  Jiddu Krishnamurti

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41028
  • Mensajes: 8413
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #3 en: Enero 04, 2021, 19:32:28 pm »
Buena idea. Dejo una lista de los artículos del último especial trimestral de tecnología de The Economist, y los artículos de tecnología del último semanal Si hay interés por alguno, dime cual/es y los copio.
Gracias Maloserá.

Pues al final es lo de siempre, todos son interesantes porque la Transición Estructural va a estar indisolublemente ligada a los cambios tecnológicos.

La VR (Virtual Reality) y la AR (Augmented Reality) van a ser, desde luego, tecnologías que van a revolucionar muchos campos (aparte, obviamente, de el del ocio).

Todos los recursos que se está empleando en este momento en el estudio científico del funcionamiento del cerebro están dando frutos muy interesantes ya mismo (aquí se aprecia perfectamente como se produce una retroalimentación entre el campo de la inteligencia artificial y el de la neurociencia y como los avances que se producen en cada uno de los campos permite avanzar al otro).

De hecho, hace unos meses la gente de Muy Interesante publicó un especial sobre el cerebro estupendo:


Yo creo que las noticias relacionadas con el COVID-19 ahora mismo encajarían mejor en el hilo que se creó específicamente para ella a finales de enero de 2020.

Sobre la relacionada con el reciclaje, viendo el impulso que se va a dar al Green New Deal quizás en un futuro deban ir a un hilo aparte, por ahora supongo que encajarían bien en este hilo.

En resumen, que cada uno traiga aquellas noticias relacionadas con STEM que piense que pueden aportar al resto (que, al final, es el espíritu que mueve a este foro).

Si he creado el hilo ha sido por evitar ensuciar el hilo de PPCC  a pesar de que, como comentaba antes, creo que los avances tecnológicos van a ser clave en la transición de modelo en la, seamos más o menos conscientes o creamos más o menos, estamos ya metidos hasta el cuello.

Saludos.

saturno

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 86686
  • -Recibidas: 30547
  • Mensajes: 8287
  • Nivel: 843
  • saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.
    • Ver Perfil
    • Billets philo-phynanciers crédit-consumméristes
Re:STEM
« Respuesta #4 en: Enero 04, 2021, 19:50:58 pm »
Cita de: WolfgangK post_id=2489243 time=1609594503 user_id=113071
https://probml.github.io/pml-book/book1.html
Probabilistic Machine Learning: An Introduction



XGracias
Alegraos, la transición estructural, por divertida, es revolucionaria.

PPCC v/eshttp://ppcc-es.blogspot

Maloserá

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 1728
  • -Recibidas: 7300
  • Mensajes: 727
  • Nivel: 81
  • Maloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importa
    • Ver Perfil
Re:STEM
« Respuesta #5 en: Enero 04, 2021, 21:05:43 pm »
Resulta que un especial de tecnologíá lleva a otro y así sucesivamente. Voy seleccionando por orden semialeatorio, y así vamos leyendo lo que ha ído publicando The Economist en dosis manejables. A mí me viene bárbaro y así me obligo a leerlos. Iré subiendo algo cada semana. Espero que los artículos de The Economist complementen los otros más científico-puros, porque tienen ese interés en aplicación y repercusión económica en la cabeza cuando los escriben.

Empiezo por AI y sus limitaciones, artículo de Junio de 2020.

https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in

An understanding of AI’s limitations is starting to sink in
After years of hype, many people feel AI has failed to deliver, says Tim Cross


It will be as if the world had created a second China, made not of billions of people and millions of factories, but of algorithms and humming computers. pwc, a professional-services firm, predicts that artificial intelligence (ai) will add $16trn to the global economy by 2030. The total of all activity—from banks and biotech to shops and construction—in the world’s second-largest economy was just $13trn in 2018.

pwc’s claim is no outlier. Rival prognosticators at McKinsey put the figure at $13trn. Others go for qualitative drama, rather than quantitative. Sundar Pichai, Google’s boss, has described developments in ai as “more profound than fire or electricity”. Other forecasts see similarly large changes, but less happy ones. Clever computers capable of doing the jobs of radiologists, lorry drivers or warehouse workers might cause a wave of unemployment.

Yet lately doubts have been creeping in about whether today’s ai technology is really as world-changing as it seems. It is running up against limits of one kind or another, and has failed to deliver on some of its proponents’ more grandiose promises.

There is no question that ai—or, to be precise, machine learning, one of its sub-fields—has made much progress. Computers have become dramatically better at many things they previously struggled with. The excitement began to build in academia in the early 2010s, when new machine-learning techniques led to rapid improvements in tasks such as recognising pictures and manipulating language. From there it spread to business, starting with the internet giants. With vast computing resources and oceans of data, they were well placed to adopt the technology. Modern ai techniques now power search engines and voice assistants, suggest email replies, power the facial-recognition systems that unlock smartphones and police national borders, and underpin the algorithms that try to identify unwelcome posts on social media.

Perhaps the highest-profile display of the technology’s potential came in 2016, when a system built by DeepMind, a London-based ai firm owned by Alphabet, Google’s corporate parent, beat one of the world’s best players at Go, an ancient Asian board game. The match was watched by tens of millions; the breakthrough came years, even decades, earlier than ai gurus had expected.

As Mr Pichai’s comparison with electricity and fire suggests, machine learning is a general-purpose technology—one capable of affecting entire economies. It excels at recognising patterns in data, and that is useful everywhere. Ornithologists use it to classify birdsong; astronomers to hunt for planets in glimmers of starlight; banks to assess credit risk and prevent fraud. In the Netherlands, the authorities use it to monitor social-welfare payments. In China ai-powered facial recognition lets customers buy groceries—and helps run the repressive mass-surveillance system the country has built in Xinjiang, a Muslim-majority region.



ai’s heralds say further transformations are still to come, for better and for worse. In 2016 Geoffrey Hinton, a computer scientist who has made fundamental contributions to modern ai, remarked that “it’s quite obvious that we should stop training radiologists,” on the grounds that computers will soon be able to do everything they do, only cheaper and faster. Developers of self-driving cars, meanwhile, predict that robotaxis will revolutionise transport. Eric Schmidt, a former chairman of Google (and a former board member of The Economist’s parent company) hopes that ai could accelerate research, helping human scientists keep up with a deluge of papers and data.

In January a group of researchers published a paper in Cell describing an ai system that had predicted antibacterial function from molecular structure. Of 100 candidate molecules selected by the system for further analysis, one proved to be a potent new antibiotic. The covid-19 pandemic has thrust such medical applications firmly into the spotlight. An ai firm called BlueDot claims it spotted signs of a novel virus in reports from Chinese hospitals as early as December. Researchers have been scrambling to try to apply ai to everything from drug discovery to interpreting medical scans and predicting how the virus might evolve.

Dude, where’s my self-driving car?
This is not the first wave of ai-related excitement (see timeline in next article). The field began in the mid-1950s when researchers hoped that building human-level intelligence would take a few years—a couple of decades at most. That early optimism had fizzled by the 1970s. A second wave began in the 1980s. Once again the field’s grandest promises went unmet. As reality replaced the hype, the booms gave way to painful busts known as “ai winters”. Research funding dried up, and the field’s reputation suffered.

Many of the grandest claims made about AI have once again failed to become reality

Modern ai technology has been far more successful. Billions of people use it every day, mostly without noticing, inside their smartphones and internet services. Yet despite this success, the fact remains that many of the grandest claims made about ai have once again failed to become reality, and confidence is wavering as researchers start to wonder whether the technology has hit a wall. Self-driving cars have become more capable, but remain perpetually on the cusp of being safe enough to deploy on everyday streets. Efforts to incorporate ai into medical diagnosis are, similarly, taking longer than expected: despite Dr Hinton’s prediction, there remains a global shortage of human radiologists.

Surveying the field of medical ai in 2019, Eric Topol, a cardiologist and ai enthusiast, wrote that “the state of ai hype has far exceeded the state of ai science, especially when it pertains to validation and readiness for implementation in patient care”. Despite a plethora of ideas, covid-19 is mostly being fought with old weapons that are already to hand. Contacttracing has been done with shoe leather and telephone calls. Clinical trials focus on existing drugs. Plastic screens and paint on the pavement enforce low-tech distancing advice.

The same consultants who predict that ai will have a world-altering impact also report that real managers in real companies are finding ai hard to implement, and that enthusiasm for it is cooling. Svetlana Sicular of Gartner, a research firm, says that 2020 could be the year ai falls onto the downslope of her firm’s well-publicised “hype cycle”. Investors are beginning to wake up to bandwagon-jumping: a survey of European ai startups by mmc, a venture-capital fund, found that 40% did not seem to be using any ai at all. “I think there’s definitely a strong element of ‘investor marketing’,” says one analyst delicately.

This Technology Quarterly will investigate why enthusiasm is stalling. It will argue that although modern ai techniques are powerful, they are also limited, and they can be troublesome and difficult to deploy. Those hoping to make use of ai’s potential must confront two sets of problems.

The first is practical. The machine-learning revolution has been built on three things: improved algorithms, more powerful computers on which to run them, and—thanks to the gradual digitisation of society—more data from which they can learn. Yet data are not always readily available. It is hard to use ai to monitor covid-19 transmission without a comprehensive database of everyone’s movements, for instance. Even when data do exist, they can contain hidden assumptions that can trip the unwary. The newest ai systems’ demand for computing power can be expensive. Large organisations always take time to integrate new technologies: think of electricity in the 20th century or the cloud in the 21st. None of this necessarily reduces ai’s potential, but it has the effect of slowing its adoption.

The second set of problems runs deeper, and concerns the algorithms themselves. Machine learning uses thousands or millions of examples to train a software model (the structure of which is loosely based on the neural architecture of the brain). The resulting systems can do some tasks, such as recognising images or speech, far more reliably than those programmed the traditional way with hand-crafted rules, but they are not “intelligent” in the way that most people understand the term. They are powerful pattern-recognition tools, but lack many cognitive abilities that biological brains take for granted. They struggle with reasoning, generalising from the rules they discover, and with the general-purpose savoir faire that researchers, for want of a more precise description, dub “common sense”. The result is an artificial idiot savant that can excel at well-bounded tasks, but can get things very wrong if faced with unexpected input.

Without another breakthrough, these drawbacks put fundamental limits on what ai can and cannot do. Self-driving cars, which must navigate an ever-changing world, are already delayed, and may never arrive at all. Systems that deal with language, like chatbots and personal assistants, are built on statistical approaches that generate a shallow appearance of understanding, without the reality. That will limit how useful they can become. Existential worries about clever computers making radiologists or lorry drivers obsolete—let alone, as some doom-mongers suggest, posing a threat to humanity’s survival—seem overblown. Predictions of a Chinese-economy-worth of extra gdp look implausible.

Today’s “ai summer” is different from previous ones. It is brighter and warmer, because the technology has been so widely deployed. Another full-blown winter is unlikely. But an autumnal breeze is picking up.
'Es enfermizo estar bien adaptado a una sociedad profundamente enferma.'
-  Jiddu Krishnamurti

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #6 en: Enero 06, 2021, 18:58:03 pm »
Muchas gracias, Maloserá, por traernos tu contribución dónde pone a la AI en su sitio. Menuda hipérbole hiperbólica...  :roto2: !!

Citar
The second set of problems runs deeper, and concerns the algorithms themselves. Machine learning uses thousands or millions of examples to train a software model (the structure of which is loosely based on the neural architecture of the brain). The resulting systems can do some tasks, such as recognising images or speech, far more reliably than those programmed the traditional way with hand-crafted rules, but they are not “intelligent” in the way that most people understand the term. They are powerful pattern-recognition tools, but lack many cognitive abilities that biological brains take for granted. They struggle with reasoning, generalising from the rules they discover, and with the general-purpose savoir faire that researchers, for want of a more precise description, dub “common sense”. The result is an artificial idiot savant that can excel at well-bounded tasks, but can get things very wrong if faced with unexpected input.

Without another breakthrough, these drawbacks put fundamental limits on what ai can and cannot do. Self-driving cars, which must navigate an ever-changing world, are already delayed, and may never arrive at all. Systems that deal with language, like chatbots and personal assistants, are built on statistical approaches that generate a shallow appearance of understanding, without the reality. That will limit how useful they can become. Existential worries about clever computers making radiologists or lorry drivers obsolete—let alone, as some doom-mongers suggest, posing a threat to humanity’s survival—seem overblown. Predictions of a Chinese-economy-worth of extra gdp look implausible.

Yo soy de la opinión de Penrose: no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

Maloserá

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 1728
  • -Recibidas: 7300
  • Mensajes: 727
  • Nivel: 81
  • Maloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importa
    • Ver Perfil
Re:STEM
« Respuesta #7 en: Enero 06, 2021, 19:31:27 pm »
Yo soy de la opinión de Penrose: no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.

Hace unos días Pollo escribió un post muy bueno en el hilo principal (ppcc/asustadísimos), no sé si lo has leído.
'Es enfermizo estar bien adaptado a una sociedad profundamente enferma.'
-  Jiddu Krishnamurti

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 26727
  • -Recibidas: 29331
  • Mensajes: 3438
  • Nivel: 460
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #8 en: Enero 06, 2021, 20:42:49 pm »
Muchas gracias, Maloserá, por traernos tu contribución dónde pone a la AI en su sitio. Menuda hipérbole hiperbólica...  :roto2: !!

Citar
The second set of problems runs deeper, and concerns the algorithms themselves. Machine learning uses thousands or millions of examples to train a software model (the structure of which is loosely based on the neural architecture of the brain). The resulting systems can do some tasks, such as recognising images or speech, far more reliably than those programmed the traditional way with hand-crafted rules, but they are not “intelligent” in the way that most people understand the term. They are powerful pattern-recognition tools, but lack many cognitive abilities that biological brains take for granted. They struggle with reasoning, generalising from the rules they discover, and with the general-purpose savoir faire that researchers, for want of a more precise description, dub “common sense”. The result is an artificial idiot savant that can excel at well-bounded tasks, but can get things very wrong if faced with unexpected input.

Without another breakthrough, these drawbacks put fundamental limits on what ai can and cannot do. Self-driving cars, which must navigate an ever-changing world, are already delayed, and may never arrive at all. Systems that deal with language, like chatbots and personal assistants, are built on statistical approaches that generate a shallow appearance of understanding, without the reality. That will limit how useful they can become. Existential worries about clever computers making radiologists or lorry drivers obsolete—let alone, as some doom-mongers suggest, posing a threat to humanity’s survival—seem overblown. Predictions of a Chinese-economy-worth of extra gdp look implausible.

Yo soy de la opinión de Penrose: no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.
Quizá no necesariamente, pero en mi opinión, por lógica, esa inteligencia debe tener alguna noción de lo que llamamos "sentido común", es decir, entender contextos y poder ejecutar simulaciones heurísticas de la realidad basándose en hechos generales sobre la realidad conocida, que es exactamente lo que hacemos nosotros cuando nos enfrentamos a problemas genéricos que no nos hemos encontrado antes: nos imaginamos lo que podría pasar (que es eso, una simulación aproximada en nuestra cabeza basada en nuestro sentido común) y probamos a ver qué pasa. Si no funciona, sacamos conclusiones contrastando nuestra simulación con el resultado en el mundo real, reajustamos y procedemos a ser algo más conocedores de la realidad.

Para ello, es imprescindible que tal modelo fuese entrenado en el mundo real, interactuando con todo tipo de información relacionada a conceptos (lo que hace un niño al crecer, que básicamente registra toda la información connotativa sobre todas y cada una de sus interacciones con la realidad).

Una vez llegado a ese punto, creo que los investigadores se encontrarán con el mismo problema que tenemos nosotros: si razonamos sobre pongamos, problemas matemáticos, desde el nivel de abstracción de nuestra mente, nunca podremos ser tan rápidos como una calculadora, ya que lo que permite que una máquina sea tan rápida es precisamente la ausencia de razonamiento complejo (que permite que los cálculos se resuelvan usando simples interacciones físicas dispuestas de manera razonada previamente por alguien que diseña el circuito.

O dicho de otra forma: creo que el precio a pagar por la inteligencia y el razonamiento general, es la imposibilidad de que se pueda hacer con la velocidad de una máquina. Para ello necesitas un mecanismo especializado en resolver problemas concretos sin razonar sobre ellos in situ.

Esto se corresponde con nuestra experiencia con habilidades complejas: cuando alguien lleva años haciendo algo, ni siquiera tiene que pensar en ello. Es una automatización. Sin embargo, cuando se aprende se es extremadamente torpe al principio, y sin embargo el "hardware" es el mismo.

La diferencia entre la IA actual y nosotros, es que nosotros somos capaces de llegar por nosotros mismos a esa automatización, y la IA actual jamás puede llegar salvo que alguien la programe/entrene específicamente para ello. Me aventuro a decir que sin un instinto de curiosidad, no es viable hacer esto en la práctica, y por eso los cachorros de todas las especies complejas tienen el sentido de la curiosidad desarrollado por evolución.
« última modificación: Enero 06, 2021, 20:46:35 pm por pollo »

Maloserá

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 1728
  • -Recibidas: 7300
  • Mensajes: 727
  • Nivel: 81
  • Maloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importaMaloserá Su opinión importa
    • Ver Perfil
Re:STEM
« Respuesta #9 en: Enero 06, 2021, 21:33:12 pm »
Continúo con el especial AI de The Economist.

The business world: Businesses are finding AI hard to adopt
Not every company is an internet giant

“Facebook: the inside story”, Steven Levy’s recent book about the American social-media giant, paints a vivid picture of the firm’s size, not in terms of revenues or share price but in the sheer amount of human activity that thrums through its servers. 1.73bn people use Facebook every day, writing comments and uploading videos. An operation on that scale is so big, writes Mr Levy, “that it can only be policed by algorithms or armies”.

In fact, Facebook uses both. Human moderators work alongside algorithms trained to spot posts that violate either an individual country’s laws or the site’s own policies. But algorithms have many advantages over their human counterparts. They do not sleep, or take holidays, or complain about their performance reviews. They are quick, scanning thousands of messages a second, and untiring. And, of course, they do not need to be paid.

And it is not just Facebook. Google uses machine learning to refine search results, and target advertisements; Amazon and Netflix use it to recommend products and television shows to watch; Twitter and TikTok to suggest new users to follow. The ability to provide all these services with minimal human intervention is one reason why tech firms’ dizzying valuations have been achieved with comparatively small workforces.

Firms in other industries woud love that kind of efficiency. Yet the magic is proving elusive. A survey carried out by Boston Consulting Group and mit polled almost 2,500 bosses and found that seven out of ten said their ai projects had generated little impact so far. Two-fifths of those with “significant investments” in ai had yet to report any benefits at all.

Perhaps as a result, bosses seem to be cooling on the idea more generally. Another survey, this one by pwc, found that the number of bosses planning to deploy ai across their firms was 4% in 2020, down from 20% the year before. The number saying they had already implemented ai in “multiple areas” fell from 27% to 18%. Euan Cameron at pwc says that rushed trials may have been abandoned or rethought, and that the “irrational exuberance” that has dominated boardrooms for the past few years is fading.

There are several reasons for the reality check. One is prosaic: businesses, particularly big ones, often find change difficult. One parallel from history is with the electrification of factories. Electricity offers big advantages over steam power in terms of both efficiency and convenience. Most of the fundamental technologies had been invented by the end of the 19th century. But electric power nonetheless took more than 30 years to become widely adopted in the rich world.

Reasons specific to ai exist, too. Firms may have been misled by the success of the internet giants, which were perfectly placed to adopt the new technology. They were already staffed by programmers, and were already sitting on huge piles of user-generated data. The uses to which they put ai, at least at first—improving search results, displaying adverts, recommending new products and the like—were straightforward and easy to measure.

Not everyone is so lucky. Finding staff can be tricky for many firms. ai experts are scarce, and command luxuriant salaries. “Only the tech giants and the hedge funds can afford to employ these people,” grumbles one senior manager at an organisation that is neither. Academia has been a fertile recruiting ground.

A more subtle problem is that of deciding what to use ai for. Machine intelligence is very different from the biological sort. That means that gauging how difficult machines will find a task can be counter-intuitive. ai researchers call the problem Moravec’s paradox, after Hans Moravec, a Canadian roboticist, who noted that, though machines find complex arithmetic and formal logic easy, they struggle with tasks like co-ordinated movement and locomotion which humans take completely for granted.

For example, almost any human can staff a customer-support helpline. Very few can play Go at grandmaster level. Yet Paul Henninger, an ai expert at kpmg, an accountancy firm, says that building a customer-service chatbot is in some ways harder than building a superhuman Go machine. Go has only two possible outcomes—win or lose—and both can be easily identified. Individual games can play out in zillions of unique ways, but the underlying rules are few and clearly specified. Such well-defined problems are a good fit for ai. By contrast, says Mr Henninger, “a single customer call after a cancelled flight has…many, many more ways it could go”.

What to do? One piece of advice, says James Gralton, engineering director at Ocado, a British warehouse-automation and food-delivery firm, is to start small, and pick projects that can quickly deliver obvious benefits. Ocado’s warehouses are full of thousands of robots that look like little filing cabinets on wheels. Swarms of them zip around a grid of rails, picking up food to fulfil orders from online shoppers.

Ocado’s engineers used simple data from the robots, like electricity consumption or torque readings from their wheel motors, to train a machine-learning model to predict when a damaged or worn robot was likely to fail. Since broken-down robots get in the way, removing them for pre-emptive maintenance saves time and money. And implementing the system was comparatively easy.

The robots, warehouses and data all existed already. And the outcome is clear, too, which makes it easy to tell how well the ai model is working: either the system reduces breakdowns and saves money, or it does not. That kind of “predictive maintenance”, along with things like back-office automation, is a good example of what pwc approvingly calls “boring ai” (though Mr Gralton would surely object).

There is more to building an ai system than its accuracy in a vacuum. It must also do something that can be integrated into a firm’s work. During the late 1990s Mr Henninger worked on Fair Isaac Corporation’s (fico) “Falcon”, a credit-card fraud-detection system aimed at banks and credit-card companies that was, he says, one of the first real-world uses for machine learning. As with predictive maintenance, fraud detection was a good fit: the data (in the form of credit-card transaction records) were clean and readily available, and decisions were usefully binary (either a transaction was fraudulent or it wasn’t).

The widening gyre

But although Falcon was much better at spotting dodgy transactions than banks’ existing systems, he says, it did not enjoy success as a product until fico worked out how to help banks do something with the information the model was generating. “Falcon was limited by the same thing that holds a lot of ai projects back today: going from a working model to a useful system.” In the end, says Mr Henninger, it was the much more mundane task of creating a case-management system—flagging up potential frauds to bank workers, then allowing them to block the transaction, wave it through, or phone clients to double-check—that persuaded banks that the system was worth buying.

Because they are complicated and open-ended, few problems in the real world are likely to be completely solvable by ai, says Mr Gralton. Managers should therefore plan for how their systems will fail. Often that will mean throwing difficult cases to human beings to judge. That can limit the expected cost savings, especially if a model is poorly tuned and makes frequent wrong decisions.

The tech giants’ experience of the covid-19 pandemic, which has been accompanied by a deluge of online conspiracy theories, disinformation and nonsense, demonstrates the benefits of always keeping humans in the loop. Because human moderators see sensitive, private data, they typically work in offices with strict security policies (bringing smartphones to work, for instance, is usually prohibited).

In early March, as the disease spread, tech firms sent their content moderators home, where such security is tough to enforce. That meant an increased reliance on the algorithms. The firms were frank about the impact. More videos would end up being removed, said YouTube, “including some that may not violate [our] policies”. Facebook admitted that less human supervision would likely mean “longer response times and more mistakes”. ai can do a lot. But it works best when humans are there to hold its hand.
'Es enfermizo estar bien adaptado a una sociedad profundamente enferma.'
-  Jiddu Krishnamurti

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41028
  • Mensajes: 8413
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #10 en: Enero 07, 2021, 18:08:33 pm »
Yo soy de la opinión de Penrose: no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.
El propio Roger Penrose reconoció en la primera parte de su libro Las sombras de la mente que su argumentación expuesta en La nueva mente del emperador basada en los teoremas de incompletitud de Gödel para demostrar que un ordenador nunca podría ser consciente era incorrecta (su mayor error fue considerar que "la conciencia es no-algorítmica" ya que eso conduce a una argumentación circular). En la segunda parte de Las sombras de la mente Roger Penrose en su hipótesis de Penrose-Hameroff de reducción objetiva orquestada ("Orch OR" ) propone una nueva idea: que la conciencia depende de procesos cuánticos en el cerebro realizados por microtúbulos situados dentro de las neuronas que funcionan de manera orquestada (sus detractores argumentan que el cerebro es demasiado «caliente, húmedo y ruidoso» para que se den procesos cuánticos sutiles).

Evidentemente el debate sigue abierto y Reger Penrose sigue convencido de que es imposible crear una máquina consciente, pero, incluso aunque estuviese en lo cierto(*), a día de hoy, la mayoría de los investigadores que trabajan en el campo de la inteligencia artificial están persiguendo no es desarrollar una AGI (Artificial General Intelligence) sino una NAI (Narrow Artificial Intelligence) ya que eso permitiría abordar y resolver muchos problemas prácticos que ahora mismo no somos capaces de resolver de forma eficiente (e.g. el problema del plegado de las proteínas).

Como se ha comentado tantas veces, para llegar al coche autónomo no es necesario lograr que el software autónomo de conducción sea perfecto, basta con que sea mejor que la media de los hunanos (y, teniendo en cuenta la cantidad de accidentes de tráfico que se producen al año ‒la mayoría achacables a errores humanos‒ está claro que no es algo tan difícil).

Saludos.

P.D.

Por si quieren profundizar sobre el debate entre Roger Penrose y sus detractores les recomiendo este post de Hilary Putnam que fue publicado a finales de noviembre de 1994 en el New York Times:

The Best of All Possible Brains?

Revista de Libros publicó una entrada en 1997 que incluía una traducción al español del artículo original de Hilary Putnam:

Acerca de un mal uso del teorema de Gödel en la especulación sobre la mente

(*) Algo que yo no comparto ya que, estando de acuerdo en que la consciencia es una propiedad emergente del cerebro, nadie ha demostrado que esa propiedad emergente dependa del sustrato físico, por lo que pienso que, al igual que surge en esa masa gris de unos 1.300 gramos que conforma el cerebro humano, perfectamente podría aparecer también en un sustrato no basado en el carbono sino en el silicio y/o con una arquitectura totalmente diferente a la del cerebro. Podemos recurrir al clásico ejemplo de que los aviones no necesitan mover las alas como hacen los pájaros para poder volar, y, aunque evidentemente no se ha podido demostrar todavía, lo más probable es que tampoco sea necesario replicar la estructura de un cerebro para que surja la conciencia en una máquina.

Pollo sacaba a relucir en su post anterior el concepto del "sentido común" en las máquinas (algo que no es exclusivo del cerebro humano y que la evolución ha considerado que es importnte para todos los animales ya que les ayuda a sobrevivir y, con ello, perpetuar sus genes).

En mi opinión, el siguiente gran avance en el campo de la Inteligencia Artificial llegará una vez que dé el paso de combinar una IA y un robot ya que (y Douglas Hofstadter lo analiza de forma genial en su libro The Mind's I) un "cerebro", para desarrollarse necesita estar "encarnado".

Hasta ahora las IAs que se están desarrollando raramente inteactuan con el mundo físico, están "aisladas" del mundo real y, por tanto, no pueden "aprender" como lo hace cualquier ser vivo (el coche autónomo es uno de las pocas excepciones y por eso los avances que se están produciendo en dicho campo son particularmente interesantes).

puede ser

  • Espectador
  • ***
  • Gracias
  • -Dadas: 20004
  • -Recibidas: 10409
  • Mensajes: 1493
  • Nivel: 155
  • puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #11 en: Enero 07, 2021, 19:57:09 pm »

En mi opinión, el siguiente gran avance en el campo de la Inteligencia Artificial llegará una vez que dé el paso de combinar una IA y un robot ya que (y Douglas Hofstadter lo analiza de forma genial en su libro The Mind's I) un "cerebro", para desarrollarse necesita estar "encarnado".

Hasta ahora las IAs que se están desarrollando raramente inteactuan con el mundo físico, están "aisladas" del mundo real y, por tanto, no pueden "aprender" como lo hace cualquier ser vivo (el coche autónomo es uno de las pocas excepciones y por eso los avances que se están produciendo en dicho campo son particularmente interesantes).

Efectivamente, la inteligencia humana no está en el cerebro, sino que el cerebro es sólo un nodo privilegiado de intercambio de información proveniente de cada célula del cuerpo. Particularmente interesante es la posible relación existente entre el lenguaje verbal y el gestual, siendo el primero un mero refinamiento del segundo.

Llegados a este punto podríamos preguntarnos si una computadora avanzadísima, al unirla a unos hierros con articulaciones y cables se convierte ya en una máquina con muchas más posibilidades de acercarse a la inteligencia humana. Yo creo que no, y no sólo por la complejidad enorme de nuestro sistema celular, sino por la evidente simbiosis que tenemos con el resto de seres naturales (véase por ejemplo el caso de la microbiota intestinal).

Por seguir con un ejemplo típico del 2º Wittgenstein (al que cita Putnam en su artículo): el dolor. ¿Cómo puede tener un ordenador comprensión de lo que es el dolor y sus grados?, ¿sólo por ponerle un cuerpo robótico ya se podría acercar a ello?...

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 26727
  • -Recibidas: 29331
  • Mensajes: 3438
  • Nivel: 460
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #12 en: Enero 07, 2021, 20:06:16 pm »

Como se ha comentado tantas veces, para llegar al coche autónomo no es necesario lograr que el software autónomo de conducción sea perfecto, basta con que sea mejor que la media de los hunanos (y, teniendo en cuenta la cantidad de accidentes de tráfico que se producen al año ‒la mayoría achacables a errores humanos‒ está claro que no es algo tan difícil).

Saludos.
Yo creo que esa premisa, la de los acceidentes de tráfico, y sobre todo la observación de que es "fácil" que sea mejor que un humano, es un error de bulto que cometen prácticamente todos los que teorizan sobre esto.

Si fuera tan fácil, ya se habría conseguido.
El problema es que el 95% del problema está resuelto (la parte difícil) y ahora queda la parte extremadísimamente jodida.

Personalmente pienso que las estadísticas de accidentes no se están poniendo en la perspectiva correcta, y más bien diría que es extremadamente asombroso que haya los pocos accidentes que hay teniendo en cuenta el volumen tan absurdo de tráfico que se produce en el planeta a diario. Dudo mucho que las IA actuales puedan hacer semejante cosa. Y sí, el 99% del tiempo lo harían (no me cabe duda) de puta madre, el problema es que el otro 1% de situaciones los humanos las resuelven a diario sin prácticamente errores y para una IA son imposibles de coomprender (ya no digamos resolver).
Y fallar un 1% de las situaciones, o un 0.1%, o un 0.01% de las situaciones, siento decirlo, es una basura. Un humano identifica contextos sin equivocarse el 100% de las veces (nadie va a confundir un camión blanco con un espacio vacío, o un periódico con una piedra, o fallará al interpretar a un guardia, o los gestos de otro conductor, o a identificar una situación excepcional).

Es muy fácil decir que "los humanos conducimos mal", pero si nos guiamos por la realidad y no por las fantasías de Hollywod o futuristas vendehumos, una IA de conducción sigue sin acercarse ni de coña a lo que puede hacer un humano en cuanto surgen condiciones que no sean triviales. Y cuando una automatización crítica es fiable la mayor parte del tiempo es una trampa mortal que induce a confiarse.

Como ya dije en otro post: es más difícil imitar a Kasparov cogiendo un peón y moviédolo con la mano, que en pensar las jugadas en el ajedrez que le ganen. La diferente naturaleza de ambos problemas da una pista de las debilidades de los enfoques actuales. No deja de ser también significativo que todas las técnicas actuales requieren una cantidad muy considerable de fuerza bruta computacional previa a la resolución del problema.

Por otro lado, no hay solución a algo tan "fácil" como doblar la ropa o atar unos zapatos con una mano robótica. ¿Por qué? Porque:
  • Reconocer y entender objetos en el espacio de verdad no está resuelto (ahora sólo se reconocen formas toscas y se tratan como cajas o aproximaciones similares). Para doblar un calcetín hay que poder reconocerlo aunque esté doblado, plegado, etc. y saber interpretar su topología a partir de una imagen 2D y posiblemente (y casi diría que necesariamente) tacto. Nosotros nos ayudamos por el sentido común, unas pocas informaciones a primera vista y extrapolamos todo lo demás.
  • Coger objetos una vez reconocidos tampoco está resuelto ni cerca de estarlo, en particular, cuando estos objetos tienen formas mutables, como los calcetines. De momento no hay una forma de representar esto.
  • A la hora de hacer este tipo de movimientos, los humanos nos basamos muchísimo en el tacto. Sentido para el que no hay un estudio extensivo ni un modelo de cómo funciona a nivel que permita entender cómo usamos un sensor de área como es la piel de los dedos para entender intuitivamente la forma y topología del objeto. Pero el caso es que lo hacemos sin mayor dificultad.
  • "Doblar la ropa" es un conjunto de acciones sobre una serie de objetos no muy bien definidos, y que debe terminar en un estado que tampoco está muy claro cómo definir. Sin embargo, cualquier persona lo entiende a la primera, y un niño entiende el concepto en seguida.

Creemos que tenemos la solución porque sabemos hacer el 95% "fácil", pero es que el 5% que resta es crítico (y muchísimo más complicado, ya que opera a niveles de abstracción muy superiores) para que ciertos problemas sean solucionados de verdad y no con aproximaciones muy lejanas de lo que se vende en realidad.

Superar la fiabilidad de los humanos al conducir: engañosamente fácil.
« última modificación: Enero 07, 2021, 20:19:27 pm por pollo »

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 26727
  • -Recibidas: 29331
  • Mensajes: 3438
  • Nivel: 460
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #13 en: Enero 07, 2021, 20:13:26 pm »

En mi opinión, el siguiente gran avance en el campo de la Inteligencia Artificial llegará una vez que dé el paso de combinar una IA y un robot ya que (y Douglas Hofstadter lo analiza de forma genial en su libro The Mind's I) un "cerebro", para desarrollarse necesita estar "encarnado".

Hasta ahora las IAs que se están desarrollando raramente inteactuan con el mundo físico, están "aisladas" del mundo real y, por tanto, no pueden "aprender" como lo hace cualquier ser vivo (el coche autónomo es uno de las pocas excepciones y por eso los avances que se están produciendo en dicho campo son particularmente interesantes).

Efectivamente, la inteligencia humana no está en el cerebro, sino que el cerebro es sólo un nodo privilegiado de intercambio de información proveniente de cada célula del cuerpo. Particularmente interesante es la posible relación existente entre el lenguaje verbal y el gestual, siendo el primero un mero refinamiento del segundo.

Llegados a este punto podríamos preguntarnos si una computadora avanzadísima, al unirla a unos hierros con articulaciones y cables se convierte ya en una máquina con muchas más posibilidades de acercarse a la inteligencia humana. Yo creo que no, y no sólo por la complejidad enorme de nuestro sistema celular, sino por la evidente simbiosis que tenemos con el resto de seres naturales (véase por ejemplo el caso de la microbiota intestinal).

Por seguir con un ejemplo típico del 2º Wittgenstein (al que cita Putnam en su artículo): el dolor. ¿Cómo puede tener un ordenador comprensión de lo que es el dolor y sus grados?, ¿sólo por ponerle un cuerpo robótico ya se podría acercar a ello?...
Sin sensores no hay estímulos. Por otro lado, el dolor o el placer a nivel más fundamental no se comprenden, pero es un mecanismo evolutivo crítico e imperativo que nos impulsa a todos los seres vivos conscientes a comportarnos de una forma que nos beneficie por un lado y que no nos cause daño por otro.

Lo cojonudo de los seres vivos, es que cuanto más se descubre, más apunta todo a que el sistema es holístico en muchos aspectos. Hay neurólogos que dicen que el cerebro en el cráneo es sólo uno de varios "cerebros" (o quizá mejor llamarlos centros neurales) que tenemos en diferentes partes del cuerpo, p.ej en el corazón o en los intestinos. Obviamente el cerebro como tal es el más complejo y el que orquesta todo, pero hay más conjuntos de neuronas por ahí procesando información de otras partes del cuerpo, de los que poco se sabe.

La interacción entre todos los elementos del cuerpo y lo poco separables que son entre sí, bien podrían significar que el cerebro no es lo único que posibilita ciertas cosas. Elementos del qualia como la propriocepción son todavía un misterio, pero sabemos que existe (por ejemplo el dolor de miembros fantasma, y cosas similares).

Alucinógenos como la Salvia alteran este sentido haciendo que las personas sientan que se extienden físicamente hacia el infinito, les retuercen, les dividen en partes o toman formas de otros objetos (creo que no se conocen otros que produzcan este tipo de alucinaciones). También se sabe que el mapa del cerebro sobre el propio cuerpo no tiene por qué corresponder al cuerpo físico y que de hecho se le puede engañar.

De todos estos fenómenos y de cómo funcionan no sabemos básicamente nada excepto cuatro cosillas de brocha muy gorda. Y todos estos conceptos son muy seguramente clave para entender muchas cosas que se desconocen. Muy probablemente podremos aproximar comportamientos, pero sin un conocimiento más profundo dudo mucho que se llegue a entender la cosa hasta el punto de poder crear inteligencias arbitrarias.
« última modificación: Enero 07, 2021, 20:26:04 pm por pollo »

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #14 en: Enero 07, 2021, 21:09:49 pm »
Yo básicamente comparto la postura de Pollo: la inteligencia humana es un grandísimo heurístico, pero es que una inteligencia animal, aún de un animal inferior como un insecto que dudosamente tenga consciencia, también lo es y es capaz de resolver problemas que para una IA las supera, o si hacen algo que mínimamente se les acerque (e.g, moverse en su entorno reconociéndolo), sólo pueden hacerlo a base de entrenamiento con bases inmensas de datos y fuerza bruta computacional. Por eso en más de una ocasión he sostenido que cuanta más capacidad de cálculo tengan, menos me impresionan, porque me parece que abordan los problemas de un modo altamente "no-inteligente" con un derroche espectacular de recursos, siendo que los sistemas biológicos, con recursos muchos órdenes de magnitud inferiores, les dan sopas con honda a tales sistemas.

Con lo cual no digo que la investigación en tales áreas no tenga sentido ni que no pueda dar muchos frutos de utilidad, pero no sólo es que no se aproximen a una inteligencia humana, es que tampoco a una animal.

No creo que haya que recurrir a los Teoremas de Incompletitud de Gödel para probar la existencia de la inteligencia humana: pocas personas pueden comprender sus enunciados, y aún menos su demostración metamatemática (en sentido estricto, no son teoremas matemáticos, sino teoremas sobre Matemáticas), sin que ello implique que no sean inteligentes; lo que sí que implican es que sobrepasamos las capacidades de cualquier máquina universal de Turing (sobre las cuales están basadas las arquitecturas de todos los modernos ordenadores), pues hemos sido capaces de idearlas en teoría e implementarlas en la práctica (ésto sólo aproximadamente, pues en rigor una tal máquina tendría memoria ilimitada), pero sin estar sujetos a sus limitaciones intrínsecas.
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

Tags:
 


SimplePortal 2.3.3 © 2008-2010, SimplePortal