www.transicionestructural.NET es un nuevo foro, que a partir del 25/06/2012 se ha separado de su homónimo .COM. No se compartirán nuevos mensajes o usuarios a partir de dicho día.
0 Usuarios y 2 Visitantes están viendo este tema.
We have been stuck on this one problem – how do proteins fold up – for nearly 50 years. To see DeepMind produce a solution for this, having worked personally on this problem for so long and after so many stops and starts, wondering if we’d ever get there, is a very special moment.
AlphaFold: a solution to a 50-year-old grand challenge in biologyAUTHORS: The AlphaFold team | 30 NOV 2020Proteins are essential to life, supporting practically all its functions. They are large complex molecules, made up of chains of amino acids, and what a protein does largely depends on its unique 3D structure. Figuring out what shapes proteins fold into is known as the “protein folding problem”, and has stood as a grand challenge in biology for the past 50 years. In a major scientific advance, the latest version of our AI system AlphaFold has been recognised as a solution to this grand challenge by the organisers of the biennial Critical Assessment of protein Structure Prediction (CASP). This breakthrough demonstrates the impact AI can have on scientific discovery and its potential to dramatically accelerate progress in some of the most fundamental fields that explain and shape our world.[...]
Buena idea. Dejo una lista de los artículos del último especial trimestral de tecnología de The Economist, y los artículos de tecnología del último semanal Si hay interés por alguno, dime cual/es y los copio.
https://probml.github.io/pml-book/book1.htmlProbabilistic Machine Learning: An Introduction
The second set of problems runs deeper, and concerns the algorithms themselves. Machine learning uses thousands or millions of examples to train a software model (the structure of which is loosely based on the neural architecture of the brain). The resulting systems can do some tasks, such as recognising images or speech, far more reliably than those programmed the traditional way with hand-crafted rules, but they are not “intelligent” in the way that most people understand the term. They are powerful pattern-recognition tools, but lack many cognitive abilities that biological brains take for granted. They struggle with reasoning, generalising from the rules they discover, and with the general-purpose savoir faire that researchers, for want of a more precise description, dub “common sense”. The result is an artificial idiot savant that can excel at well-bounded tasks, but can get things very wrong if faced with unexpected input.Without another breakthrough, these drawbacks put fundamental limits on what ai can and cannot do. Self-driving cars, which must navigate an ever-changing world, are already delayed, and may never arrive at all. Systems that deal with language, like chatbots and personal assistants, are built on statistical approaches that generate a shallow appearance of understanding, without the reality. That will limit how useful they can become. Existential worries about clever computers making radiologists or lorry drivers obsolete—let alone, as some doom-mongers suggest, posing a threat to humanity’s survival—seem overblown. Predictions of a Chinese-economy-worth of extra gdp look implausible.
Yo soy de la opinión de Penrose: no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.
Muchas gracias, Maloserá, por traernos tu contribución dónde pone a la AI en su sitio. Menuda hipérbole hiperbólica... !!CitarThe second set of problems runs deeper, and concerns the algorithms themselves. Machine learning uses thousands or millions of examples to train a software model (the structure of which is loosely based on the neural architecture of the brain). The resulting systems can do some tasks, such as recognising images or speech, far more reliably than those programmed the traditional way with hand-crafted rules, but they are not “intelligent” in the way that most people understand the term. They are powerful pattern-recognition tools, but lack many cognitive abilities that biological brains take for granted. They struggle with reasoning, generalising from the rules they discover, and with the general-purpose savoir faire that researchers, for want of a more precise description, dub “common sense”. The result is an artificial idiot savant that can excel at well-bounded tasks, but can get things very wrong if faced with unexpected input.Without another breakthrough, these drawbacks put fundamental limits on what ai can and cannot do. Self-driving cars, which must navigate an ever-changing world, are already delayed, and may never arrive at all. Systems that deal with language, like chatbots and personal assistants, are built on statistical approaches that generate a shallow appearance of understanding, without the reality. That will limit how useful they can become. Existential worries about clever computers making radiologists or lorry drivers obsolete—let alone, as some doom-mongers suggest, posing a threat to humanity’s survival—seem overblown. Predictions of a Chinese-economy-worth of extra gdp look implausible.Yo soy de la opinión de Penrose: no es que la IA en sentido estricto sea imposible, sino que la aproximación a ella con los métodos actuales ni siquiera se acercan a la misma, y si por casualidad tal cosa fuera posible, tendría que tener forzosamente consciencia, que no es simulable, por ser tanto una propiedad emergente como por sobrepasar lo que cualquier máquina de Turing pueda hacer.
En mi opinión, el siguiente gran avance en el campo de la Inteligencia Artificial llegará una vez que dé el paso de combinar una IA y un robot ya que (y Douglas Hofstadter lo analiza de forma genial en su libro The Mind's I) un "cerebro", para desarrollarse necesita estar "encarnado".Hasta ahora las IAs que se están desarrollando raramente inteactuan con el mundo físico, están "aisladas" del mundo real y, por tanto, no pueden "aprender" como lo hace cualquier ser vivo (el coche autónomo es uno de las pocas excepciones y por eso los avances que se están produciendo en dicho campo son particularmente interesantes).
Como se ha comentado tantas veces, para llegar al coche autónomo no es necesario lograr que el software autónomo de conducción sea perfecto, basta con que sea mejor que la media de los hunanos (y, teniendo en cuenta la cantidad de accidentes de tráfico que se producen al año ‒la mayoría achacables a errores humanos‒ está claro que no es algo tan difícil).Saludos.
Cita de: Cadavre Exquis en Enero 07, 2021, 18:08:33 pmEn mi opinión, el siguiente gran avance en el campo de la Inteligencia Artificial llegará una vez que dé el paso de combinar una IA y un robot ya que (y Douglas Hofstadter lo analiza de forma genial en su libro The Mind's I) un "cerebro", para desarrollarse necesita estar "encarnado".Hasta ahora las IAs que se están desarrollando raramente inteactuan con el mundo físico, están "aisladas" del mundo real y, por tanto, no pueden "aprender" como lo hace cualquier ser vivo (el coche autónomo es uno de las pocas excepciones y por eso los avances que se están produciendo en dicho campo son particularmente interesantes).Efectivamente, la inteligencia humana no está en el cerebro, sino que el cerebro es sólo un nodo privilegiado de intercambio de información proveniente de cada célula del cuerpo. Particularmente interesante es la posible relación existente entre el lenguaje verbal y el gestual, siendo el primero un mero refinamiento del segundo.Llegados a este punto podríamos preguntarnos si una computadora avanzadísima, al unirla a unos hierros con articulaciones y cables se convierte ya en una máquina con muchas más posibilidades de acercarse a la inteligencia humana. Yo creo que no, y no sólo por la complejidad enorme de nuestro sistema celular, sino por la evidente simbiosis que tenemos con el resto de seres naturales (véase por ejemplo el caso de la microbiota intestinal). Por seguir con un ejemplo típico del 2º Wittgenstein (al que cita Putnam en su artículo): el dolor. ¿Cómo puede tener un ordenador comprensión de lo que es el dolor y sus grados?, ¿sólo por ponerle un cuerpo robótico ya se podría acercar a ello?...