* Blog


* Últimos mensajes


* Temas mas recientes

PPCC-Pisitófilos Creditófagos-Otoño 2021 por Derby
[Hoy a las 18:43:51]


COVID-19 por Rafa_
[Hoy a las 16:45:00]


URGENTE: Gestión del Foro TE por CHOSEN
[Hoy a las 15:10:20]


TE.NET CIERRA (PARA SIEMPRE.) por Sidartah
[Noviembre 30, 2021, 22:20:26 pm]


Autor Tema: STEM  (Leído 19359 veces)

0 Usuarios y 1 Visitante están viendo este tema.

Cadavre Exquis

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 6632
  • -Recibidas: 4916
  • Mensajes: 558
  • Nivel: 66
  • Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.
    • Ver Perfil
Re:STEM
« Respuesta #105 en: Septiembre 05, 2021, 21:07:16 pm »
Hace unas semanas me tropecé con este hilo sobre ASML que me pareció muy interesante.


A continuación, el hilo "desenrrollado":

Citar
What *exactly* does ASML sell?

Its key product is an extreme ultraviolet lithography (EUV) machine, which uses advanced light technology to "print" tiny circuits onto Silicon wafers.

Only ~50 are made a year and ASML has a near monopoly on the machine technology.


You def know ASML's main clients: Intel, Samsung and Taiwan Semiconductor Manufacturing Co. (TSMC).

They need EUV to keep Moore's Law ("# of transistors on microchips doubles every 2 years") alive and continue to advance computing.

Total ASML sales in 2020 = $16B+.


The ASML story begins in 1984, as a joint venture between Dutch conglomerate Philips and an electronics maker called Advanced Semiconductor Materials Int.

The project had a very humble start: it was launched in a shed behind a Philip's building in Eindhoven, Netherlands.


The venture's first product was called the PA 2000 stepper (think a slide projector "projecting" designs on silicon).

For years, the product failed to make headway against leading Japanese competitors (Nikon, Canon) and, in 1990, ASML was spun out as its own company.




ASML scored its 1st hit product in 1991, giving it momentum to IPO in 1995.

Soon after, it acquired a # of US lithography firms and -- by the end of 1990s -- it had comparable market share to Nikon and Canon.

From there, ASML made 2 big bets that separated it from the pack.


Both bets were made to keep up with Moore's law.

First: In 2006, ASML released its TWINSCAN system using immersion lithography (it utilizes water as lens to shrink the laser's wavelength = more circuits on chip).

It was ASML's first market-leading product.


Also in the mid-2000s, ASML started spending huge R&D on EUV technology.

It was a massive risk, though: EUV lithography would require Samsung, Intel and TMSC to completely rebuild and redesign their fabrication plants.

From 2008-14, ASML put $5B+ into EUV research.


The science behind EUV was established in the late 1980s. It was a US-led effort between the Dept. of Energy and industry (e.g. AMD, IBM, Intel).

ASML licensed EUV tech in 1999. Canon elected not to pursue it due to financial problems while Nikon chose to develop older tech.


How EUV works today:

  • A tin droplet drops into a vacuum
  • It's pulsed by a high-power laser
  • Tin atoms are ionized, creating plasma
  • A mirror captures EUV radiation emitted by plasma
  • Mirror transfers EUV to wafer (wavelength=13.5 nanometers, basically X-ray level)


The potential of EUV was so great that Intel, Samsung and TMSC -- all competitors -- jointly acquired 23% of ASML.

Intel put up the most: €2.5B for a 15% share (today, the firms have sold down most their stakes).

The first production-ready EUV machine was released in 2016.


Why are EUVs so expensive?

ASML plays a role similar to Boeing for airplanes (also $100m+ products): it's an integrator of 4750 global high-value parts suppliers:

  • Tooling equipment (US)
  • Chemicals (Japan)
  • Lens (Germany)

(Nikon/Cannon do most production in-house)



Why can ASML only produce 50 EUV machines a year?

  • Co-ordinating 1000s of suppliers is very difficult (just like an aircraft)
  • Each machine is custom (30+ variables to choose from)
  • Lead-time are long (speciality parts like the Zeiss lens takes 40 weeks to produce)



The delivery process is nuts, too:

  • Each EUV weighs 180 tons
  • A disassembled EUV takes up 40 shipping containers
  • Shipping it (mostly to Asia) takes 20 trucks and 3 Boeing 747s
  • ASML teams must be on-the-ground to maintain them
  • The min spend to house EUVs is $1B


Today, ASML has a 90% share in semi lithography (EUV and Deep UV).

EUV tailwinds are huge:

  • Semi CAPEX >$120B+ in 2021 (similar spend in following years)
  • Key sectors (esp. auto AKA Tesla chips) will see growth for years
  • Transition to 5nm process requires more EUV


Even if machine sales slow, ASML's business is increasingly shifting to system maintenance, relocation and upgrades.

Over a 20yr lifespan of an ASML machine, services-based sales may reach 50% of the initial machine price (w/ high margins)...across a growing installed base.


With chips needed in everything (data centres, AI, autos, mining), semis are the OIL of the 21st century.

The US has even blocked Dutch exports of EUV-licensed tech to China. As the Tech Cold War heats up, expect to hear more of ASML: the $300B+ giant that started in a shed.

Y un vídeo que combina fragmentos de animaciones y vídeos publicados por la propia ASML que permiten hacerse una idea de la complejidad de sus máquinas:


Saludos.

Cadavre Exquis

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 6632
  • -Recibidas: 4916
  • Mensajes: 558
  • Nivel: 66
  • Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.
    • Ver Perfil
Re:STEM
« Respuesta #106 en: Septiembre 05, 2021, 21:22:22 pm »
Y, relacionado con el tema, una noticia que apareció en WIRED a finales de agosto en la que ASML afirma que todavía les queda bastante recorrido en lo que a reducir el tamaño de los transistores se refiere.

Citar
The $150 Million Machine Keeping Moore’s Law Alive
ASML’s next-generation extreme ultraviolet lithography machines achieve previously unattainable levels of precision, which means chips can keep shrinking for years to come.

Each machine is roughly the size of a bus. Shipping their components requires 40 freight containers, three cargo planes, and 20 trucks. | PHOTOGRAPH: ASML

Inside a large clean room in rural Connecticut, engineers have begun constructing a critical component for a machine that promises to keep the tech industry as we know it on track for at least another decade.

The machine is being built by ASML, a Dutch company that has cornered the market for etching the tiniest nanoscopic features into microchips with light.

ASML introduced the first extreme ultraviolet (EUV) lithography machines for mass production in 2017, after decades spent mastering the technique. The machines perform a crucial role in the chipmaking ecosystem, and they have been used in the manufacture of the latest, most advanced chips, including those in new iPhones as well as computers used for artificial intelligence. The company’s next EUV system, a part of which is being built in Wilton, Connecticut, will use a new trick to minimize the wavelength of light it uses—shrinking the size of features on the resulting chips and boosting their performance—more than ever before.

The current generation of EUV machines are already, to put it bluntly, kind of bonkers. Each one is roughly the size of a bus and costs $150 million. It contains 100,000 parts and 2 kilometers of cabling. Shipping the components requires 40 freight containers, three cargo planes, and 20 trucks. Only a few companies can afford the machines, and most of them go to the world’s big three leading-edge chipmakers: the world’s leading foundry, Taiwan-based TSMC, as well as Samsung, in South Korea, and Intel.

“It is really an incredible machine,” says Jesús del Alamo, a professor at MIT who works on novel transistor architectures. “It’s an absolutely revolutionary product, a breakthrough that is going to give a new lease of life to the industry for years.”

In Connecticut, a giant hunk of aluminum has been carved into a frame that will eventually hold a mask, or “reticle,” that moves with nanometer precision while reflecting a beam of extreme ultraviolet light. The light pinballs off several mirrors shaped and polished with astonishing precision to etch features just a few dozen atoms in size onto future computer chips.

The finished component will be shipped to Veldhoven in the Netherlands by the end of 2021, and then added to the first prototype next-generation EUV machine by early 2022. The first chips made using the new systems may be minted by Intel, which has said it will get the first of them, expected by 2023. With smaller features than ever, and tens of billions of components each, the chips that the machine produces in coming years should be the fastest and most efficient in history.

ASML’s latest EUV machine promises to keep alive an idea that has come to symbolize the march of progress—not just in chipmaking, but in the tech industry and the economy at large.

Only a handful of companies can afford ASML's giant machine, and China has been blocked from purchasing them altogether. | PHOTOGRAPH: ASML

In 1965, Gordon Moore, an electronics engineer and one of the founders of Intel, wrote an article for the 35th anniversary issue of Electronics, a trade magazine, that included an observation that has since taken on a life of its own. In the article, Moore noted that the number of components on a silicon chip had roughly doubled each year until then, and he predicted the trend would continue.

A decade later, Moore revised his estimate to two years rather than one. The march of Moore’s law has come into question in recent years, although new manufacturing breakthroughs and chip design innovations have kept it roughly on track.

EUV uses some extraordinary engineering to shrink the wavelength of light used to make chips, and it should help continue that streak. The technology will be crucial for making more advanced smartphones and cloud computers, and also for key areas of emerging technology such as artificial intelligence, biotechnology, and robotics. “The death of Moore’s law has been greatly exaggerated,” del Alamos says. “I think it’s going to go on for quite some time.”

Amid the recent chip shortage, triggered by the pandemic’s economic shock waves, ASML’s products have become central to a geopolitical struggle between the US and China, with Washington making it a high priority to block China's access to the machines. The US government has successfully pressured the Dutch not to grant the export licenses needed to send the machines to China, and ASML says it has shipped none to the country.

“You can’t make leading-edge chips without ASML’s machines,” says Will Hunt, a research analyst at Georgetown University studying the geopolitics of chipmaking. “A lot of it comes down to years and years of tinkering with things and experimenting, and it’s very difficult to get access to that.”

Each component that goes into an EUV machine is “astonishingly sophisticated and extraordinarily complex,” he says.

Making microchips already requires some of the most advanced engineering the world has ever seen. A chip starts out life as a cylindrical chunk of crystalline silicon that is sliced into thin wafers, which are then coated with layers of light-sensitive material and repeatedly exposed to patterned light. The parts of silicon not touched by the light are then chemically etched away to reveal the intricate details of a chip. Each wafer is then chopped up to make lots of individual chips.

Shrinking the components on a chip remains the surest way to squeeze more computational power out of a piece of silicon because electrons pass more efficiently through smaller electronic components, and packing more components into a chip increases its capacity to compute.

Lots of innovations have kept Moore’s law going, including novel chip and component designs. This May, for instance, IBM showed off a new kind of transistor, sandwiched like a ribbon inside silicon, that should allow more components to be packed into a chip without shrinking the resolution of the lithography.

But reducing the wavelength of light used in chip manufacturing has helped drive miniaturization and progress from the 1960s onwards, and it is crucial to the next advance. Machines that use visible light were replaced by those that use near-ultraviolet, which in turn gave way to systems that employ deep-ultraviolet in order to etch ever smaller features into chips.

A consortium of companies including Intel, Motorola, and AMD began studying EUV as the next step in lithography in the 1990s. ASML joined in 1999, and as a leading maker of lithography technology, sought to develop the first EUV machines. Extreme ultraviolet lithography, or EUV for short, allows a much shorter wavelength of light (13.5 nanometers) to be used, compared with deep ultraviolet, the previous lithographic method (193 nanometers).

Citar
“It’s an absolutely revolutionary product.”
- JESÚS DEL ALAMO, MIT
But it has taken decades to iron out the engineering challenges. Generating EUV light is itself a big problem. ASML’s method involves directing high-power lasers at droplets of tin 50,000 times per second to generate high-intensity light. Lenses absorb EUV frequencies, so the system uses incredibly precise mirrors coated with special materials instead. Inside ASML’s machine, EUV light bounces off several mirrors before passing through the reticle, which moves with nanoscale precision to align the layers on the silicon.

“To tell you the truth, nobody actually wants to use EUV,” says David Kanter, a chip analyst with Real World Technologies. “It's a mere 20 years late and 10X over budget. But if you want to build very dense structures, it’s the only tool you’ve got.”

ASML’s new machine introduces an additional trick to produce smaller features on a chip: a larger numerical aperture, which increases the resolution of imaging by allowing light to travel through the optics at different angles. This requires significantly larger mirrors and new software and hardware to precisely control the components. ASML’s current generation of EUV machines can create chips with a resolution of 13 nanometers. The next generation will use High-NA to craft features 8 nanometers in size.

The most prominent company using EUV today is TSMC, whose customers include Apple, Nvidia, and Intel. Intel was slow to adopt EUV and fell behind rivals as a result, hence its recent decision to outsource some of its production to TSMC.

ASML doesn’t seem to think the progress built on top of its machines will slow.

“I don’t like to talk about the end of Moore’s law, I like to talk about the illusion of Moore's law,” says Martin van den Brink, ASML’s chief technology officer, via a video link from the Netherlands.

Moore’s 1965 article was actually more focused on the march of innovation than just shrinkage, Van den Brink notes. While he expects High-NA EUV to keep spurring progress in the chip industry for at least the next 10 years, he believes that shrinking chip features using lithography will become less important.

Van den Brink says ASML has researched proposed successors to EUV, including e-beam and nanoimprint lithography, but has not found any of them to be reliable enough to justify substantial investment. He predicts that new methods of speeding up the throughput of lithographic machines while accounting for thermal stability and physical disturbances will help increase yield. Even if chips did not become faster, this would result in the most advanced chips becoming cheaper and more widely used.

Van den Brink adds that other manufacturing tricks, including efforts to build components vertically on a chip—something that Intel and others have already begun doing—should keep improving performance. He notes that the executive chairman of TSMC, Mark Liu, has said he expects a threefold improvement in combined performance and efficiency each year for the next 20 years.

Demand for faster chips is hardly likely to go down. Mark Lundstrom, a professor at Purdue who began working in the chip industry in the 1970s, wrote an article for Science magazine in 2003 that predicted Moore’s law would run into physical limits within a decade. “In my career, multiple times we thought ‘OK, this is the end,’” he says. “But there's no danger at all that things will slow down in 10 years. We'll just have to do it differently.”

Lundstrom remembers visiting his first microchip conference in 1975. “There was this fellow named Gordon Moore giving a talk,” he recalls. “He was well known within the technical community, but nobody else knew him.”

“And I remember the talk that he gave,” Lundstrom adds. “He said, ‘We will soon be able to place 10,000 transistors on a chip.’ And he added, 'What could anyone possibly do with 10,000 transistors on a chip?’”
Saludos.

senslev

  • Ha sido citado por PPCC
  • ***
  • Gracias
  • -Dadas: 3826
  • -Recibidas: 6319
  • Mensajes: 892
  • Nivel: 73
  • senslev Destaca sobre el usuario mediosenslev Destaca sobre el usuario mediosenslev Destaca sobre el usuario mediosenslev Destaca sobre el usuario mediosenslev Destaca sobre el usuario mediosenslev Destaca sobre el usuario mediosenslev Destaca sobre el usuario medio
    • Ver Perfil
Re:STEM
« Respuesta #107 en: Septiembre 06, 2021, 15:18:10 pm »
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/

"It's often not readily obvious, but we are /always/ choosing paths based on predictions of how the consequences of the decision will make us feel. This changes just about everything in human performance dogma."

"No es señal de buena salud estar adaptado a una sociedad enferma"- Jiddu Krishnamurti

Cadavre Exquis

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 6632
  • -Recibidas: 4916
  • Mensajes: 558
  • Nivel: 66
  • Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.
    • Ver Perfil
Re:STEM
« Respuesta #108 en: Septiembre 06, 2021, 20:43:04 pm »
Aunque he dudado de si colocar la noticia en el hilo de Coches electricos creo que encaja mejor aquí, porque el uso de carburo de silicio como alternativa al silicio para la fabricación de semiconductores es importante para cualquier sistema electrónico que precise regular el flujo de energía eléctrica, tal y como se explicaba en este artículo publicado en 2018 por El Heraldo de Aragón con la colaboración de la Unidad de Cultura Científica de la Universidad de Zaragoza.

Citar
Led by Tesla, EVs drive chip industry's shift beyond silicon
Model 3's use of new material spurs competition for energy-efficient alternative

HIDEAKI RYUGEN, ZHANG YAOYU and NAOKI WATANABE, Nikkei staff writers
September 6, 2021 05:56 JST


Smaller inverters, a key EV component, helped give Tesla's Model 3 its sleek design. Silicon carbide contributes to making smaller power components.

TOKYO/OSAKA -- Abundant, easily processed silicon has been the material of choice for decades in the semiconductor industry, but electric vehicles are helping chip away at its dominance in the pursuit of energy efficiency.

Tesla has been a catalyst for this change. The U.S. automaker became the first of its peers to use silicon carbide chips in a mass-produced car, incorporating them into some of its Model 3s. This move gave the power-saving material a boost of momentum in the EV supply chain, with ramifications for the chip industry.

"Thus far, chipmakers have worked together to build up the silicon carbide market, but we've reached the stage of competing with each other," said Kazuhide Ino, chief strategy officer at Japanese chipmaker Rohm.

Silicon carbide, abbreviated SiC, contains silicon and carbon. With chemical bonds stronger than those in silicon, it is the world's third-hardest substance. Processing it requires advanced technology, but the material's stability and other properties let chipmakers cut energy loss by more than half compared with standard silicon wafers.

SiC chips also dissipate heat well, allowing for smaller inverters -- a crucial EV component that regulates the flow of power to the motor.

"The Model 3 has an air resistance factor as low as a sports car's," said Masayoshi Yamamoto, a professor at Nagoya University in Japan. "Scaling down inverters enabled its streamlined design."

A Tesla Model 3 inverter containing silicon carbide chips is seen during a teardown. (Photo courtesy of Nagoya University professor Masayoshi Yamamoto)

Tesla's move jolted the chip industry. In June, German chipmaker Infineon Technologies introduced an SiC module for electric vehicle inverters.

"The timing of the expansion of SiC has clearly moved closer than what we had expected," said Takemi Kouzu, manager at Infineon's Japan unit.

Hyundai Motor will use Infineon-made SiC chips in its next-generation EV. These chips are said to enable a more than 5% increase in vehicle range compared with silicon.

French automaker Renault signed a deal in June with Switzerland-based STMicroelectronics for a supply of SiC chips beginning in 2026. The agreement also covers chips made with gallium nitride, another alternative material for semiconductor wafers.

The market for SiC power chips will grow sixfold by 2026 compared with 2020, reaching $4.48 billion, French market research firm Yole Developpement forecasts.

The price gap between silicon and more costly SiC is narrowing. Mass production and other factors have shrunk the difference in cost to about double, from roughly tenfold as recently as five years ago, Yamamoto said. With some chip industry suppliers starting to make bigger SiC wafers, this gap could narrow even further.

Rohm has been a leader in the field, mass-producing the world's first SiC transistor in 2010. German unit SiCrystal, acquired in 2009, makes SiC wafers, giving Rohm a start-to-finish production capability. The Japanese company aims to reach a 30% global market share in SiC chips by fiscal 2025. It recently opened a additional production facility at a plant in Japan's Fukuoka Prefecture, part of plans to grow capacity more than fivefold.

Rohm said a number of upcoming electric vehicle models will use its SiC chips. It also has an agreement with Chinese EV maker Geely on technology for next-generation chips.


Silicon was not the first chip material. After the groundbreaking invention of the transistor at Bell Laboratories in the U.S. in 1947, germanium crystals were used. Silicon replaced this element in the 1960s as the semiconductor industry took off. Two of the world's biggest silicon wafer suppliers -- Shin-Etsu Chemical and Sumco -- are based in Japan.

SiC also has rivals as an alternative to silicon. Gallium nitride (GaN) holds the potential to cut energy loss to about one-tenth as much as with silicon chips. The use of this material in semiconductors was developed in Japan to create blue light-emitting diodes. While GaN chips are used in some areas, such as charging devices, the material has yet to show its full potential because it has mostly been used in conjunction with other materials, including silicon.

The search for alternatives to silicon reflects the increasingly apparent limits to improvement in chip performance. The development of smaller, more powerful electronics requires etching ever more minute circuit patterns. With this scale now at 5 nanometers (1 nanometer equals one billionth of a meter), the projection that transistor density will double roughly every two years -- known as Moore's Law -- is being tested like never before.

Energy conservation also drives innovations in chip materials. The expansion of EVs, data centers and other building blocks of the digital economy will create vast unmet demand for electricity without steps to improve energy efficiency.

U.S. startup Lab 91, a spinoff of the University of Texas at Austin, is developing technology to overlay graphene -- sheets of carbon just one atom thick -- on chip wafers. Early trials have been successful, and the company is in talks with chipmakers on evaluating the technology for mass production. Graphene holds the potential to improve chip performance in a wide range of applications, from EVs to LEDs to image sensors used in smartphone cameras.

Diamond -- called by some the ultimate semiconductor -- is a potentially game-changing but costly alternative to silicon. Tokyo-based manufacturer Adamant Namiki Precision Jewel has developed technology for producing power chips with diamond. The world's hardest substance has a theoretical ability to cut energy loss to one-50,000th as much as silicon. But making such chips cost-effective will be key. Diamond substrates now cost thousands of times as much as silicon wafers.

With semiconductors vital to national security and economic competitiveness, governments in China, the U.S. and Europe are looking to back research and development into new chip materials. Support for R&D and investment in this field was part of a semiconductor strategy issued by Japan's Ministry of Economy, Trade and Industry in June. As silicon stood alongside steel as one of the materials that built the 20th century, the next great semiconductor material looks likely to become a driver of international competition in the coming decades.
Saludos.

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 16173
  • -Recibidas: 23333
  • Mensajes: 2771
  • Nivel: 381
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #109 en: Septiembre 07, 2021, 14:22:37 pm »
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/
No es por joder, pero esto no es nada nuevo, ni como invento ni como concepto. Será nuevo para el que redactó el artículo. La novedad real aquí es el tamaño. Está teorizado que este tipo de componentes pueden abrir nuevos tipos de lógica de procesamiento, pero de ahí al salto cósmico que hace el artículo (habemus cerebro electrónico) hay como varios miles de toneladas de sensacionalismo y saltos de fe.

Una de las principales causas de que no haya una IA que realmente pueda llamarse así es que no hay un modelo teórico, ni siquiera uno aproximado o muy de brocha gorda de cómo funciona en realidad un cerebro. Nadie sabe cómo localizar un recuerdo concreto en un cerebro, porque no se sabe de qué forma se guarda esta información, ni tampoco cómo se procesan las cosas ni por qué surge la conciencia.

Ya pueden echarle toda la fuerza bruta al problema (en forma de gigacomputadoras que "entrenan" redes cada vez más gordas) que quieran, es un problema de calidad y no de cantidad. El paradigma actual de "IA" da para lo que da, y las aplicaciones son las que son, muy específicas, que es lo que se puede conseguir con los paradigmas creados en los años 60/70 (siguen siendo esos) pero con la potencia de hoy día. No ha habido nuevos paradigmas fundamentales desde entonces, sólo pequeñas evoluciones.

Un niño sigue siendo capaz de reconocer un gato con ver dos o tres ejemplos, a la vez que aprende lo que es un árbol y lo que son tropecientasmil cosas más, mientras que los programas actuales necesitan como mínimo decenas de miles de ejemplos correctamente clasificados para reconocer (y con sesgos si los ejemplos no están perfectamente seleccionados) una única clase de cosas y que son engañables de formas triviales. Cambiar, transferir o generalizar estos entrenamientos requieren papers enteros y cantidades enormes de preproceso. Obviamente algo fundamental se nos escapa.

El ejemplo de los coches autónomos es muy significativo. El 85% fácil del problema (por decir algo) ya se ha resuelto, pero el 15% restante es el que impide que se pueda aplicar como nos han vendido: las situaciones no previsibles. Se está empezando la casa por el tejado. Si no conoces cómo funciona el mundo, no puedes esperar interactuar de formas complejas con él. Se están intentando emular procesos cognitivos resultado de una interacción completa con el mundo durante años.
El símil que mejor se me ocurre es esperar que alguien juegue al basket como Jordan sólo a base de mirar muchísimos vídeos de cómo lo hace. Eso no funciona así. Quizá valga para el ajedrez y otros problemas con información perfecta, reglas determinísticas y acotados, pero no para el mundo físico, que no tiene ninguna de esas tres cosas.

El tener nuevos componentes que permitan nuevos paradigmas de computación no implica que tengamos idea de cómo son esos nuevos paradigmas, que es el principal problema que queda por resolver, y del que no hay ningún paso dado aún, porque no se sabe cuál es el primer paso.

Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.

Qué pereza. El mundo de "la tecnología" se ha vuelto postureo puro.
« última modificación: Septiembre 07, 2021, 14:48:55 pm por pollo »

el malo

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 6857
  • -Recibidas: 5879
  • Mensajes: 541
  • Nivel: 72
  • el malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medio
    • Ver Perfil
Re:STEM
« Respuesta #110 en: Septiembre 07, 2021, 15:29:09 pm »
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/
No es por joder, pero esto no es nada nuevo, ni como invento ni como concepto. Será nuevo para el que redactó el artículo. La novedad real aquí es el tamaño. Está teorizado que este tipo de componentes pueden abrir nuevos tipos de lógica de procesamiento, pero de ahí al salto cósmico que hace el artículo (habemus cerebro electrónico) hay como varios miles de toneladas de sensacionalismo y saltos de fe.

Una de las principales causas de que no haya una IA que realmente pueda llamarse así es que no hay un modelo teórico, ni siquiera uno aproximado o muy de brocha gorda de cómo funciona en realidad un cerebro. Nadie sabe cómo localizar un recuerdo concreto en un cerebro, porque no se sabe de qué forma se guarda esta información, ni tampoco cómo se procesan las cosas ni por qué surge la conciencia.

Ya pueden echarle toda la fuerza bruta al problema (en forma de gigacomputadoras que "entrenan" redes cada vez más gordas) que quieran, es un problema de calidad y no de cantidad. El paradigma actual de "IA" da para lo que da, y las aplicaciones son las que son, muy específicas, que es lo que se puede conseguir con los paradigmas creados en los años 60/70 (siguen siendo esos) pero con la potencia de hoy día. No ha habido nuevos paradigmas fundamentales desde entonces, sólo pequeñas evoluciones.

Un niño sigue siendo capaz de reconocer un gato con ver dos o tres ejemplos, a la vez que aprende lo que es un árbol y lo que son tropecientasmil cosas más, mientras que los programas actuales necesitan como mínimo decenas de miles de ejemplos correctamente clasificados para reconocer (y con sesgos si los ejemplos no están perfectamente seleccionados) una única clase de cosas y que son engañables de formas triviales. Cambiar, transferir o generalizar estos entrenamientos requieren papers enteros y cantidades enormes de preproceso. Obviamente algo fundamental se nos escapa.

El ejemplo de los coches autónomos es muy significativo. El 85% fácil del problema (por decir algo) ya se ha resuelto, pero el 15% restante es el que impide que se pueda aplicar como nos han vendido: las situaciones no previsibles. Se está empezando la casa por el tejado. Si no conoces cómo funciona el mundo, no puedes esperar interactuar de formas complejas con él. Se están intentando emular procesos cognitivos resultado de una interacción completa con el mundo durante años.
El símil que mejor se me ocurre es esperar que alguien juegue al basket como Jordan sólo a base de mirar muchísimos vídeos de cómo lo hace. Eso no funciona así. Quizá valga para el ajedrez y otros problemas con información perfecta, reglas determinísticas y acotados, pero no para el mundo físico, que no tiene ninguna de esas tres cosas.

El tener nuevos componentes que permitan nuevos paradigmas de computación no implica que tengamos idea de cómo son esos nuevos paradigmas, que es el principal problema que queda por resolver, y del que no hay ningún paso dado aún, porque no se sabe cuál es el primer paso.

Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.

Qué pereza. El mundo de "la tecnología" se ha vuelto postureo puro.

De acuerdo al 100% con una matización. El poder computativo no va a conserguir IA "de verdad", pero puede conseguir cosas "que se le parezcan" a base de simular millones de escenarios.

Yo creo que el coche autónomo llegará a ser una realidad aunque no sepa qué hacer en caso de riada o de que un avión aterrice delante nuestro en la autopista porque un humano corriente tampoco sabría qué hacer porque nunca se ha enfrentado a esas situaciones en su vida. En el momento en que las muertes por accidentes de coches autónomos sean sustancialmente menores que las de hoy dia (en las mismas condiciones de tráfico, climatología, carreteras, etc.), se hará un balance coste/beneficio y se implantará.

"Los beneficios superarán a los riesgos". ¿Les suena?



pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 16173
  • -Recibidas: 23333
  • Mensajes: 2771
  • Nivel: 381
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #111 en: Septiembre 07, 2021, 20:54:18 pm »
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/
No es por joder, pero esto no es nada nuevo, ni como invento ni como concepto. Será nuevo para el que redactó el artículo. La novedad real aquí es el tamaño. Está teorizado que este tipo de componentes pueden abrir nuevos tipos de lógica de procesamiento, pero de ahí al salto cósmico que hace el artículo (habemus cerebro electrónico) hay como varios miles de toneladas de sensacionalismo y saltos de fe.

Una de las principales causas de que no haya una IA que realmente pueda llamarse así es que no hay un modelo teórico, ni siquiera uno aproximado o muy de brocha gorda de cómo funciona en realidad un cerebro. Nadie sabe cómo localizar un recuerdo concreto en un cerebro, porque no se sabe de qué forma se guarda esta información, ni tampoco cómo se procesan las cosas ni por qué surge la conciencia.

Ya pueden echarle toda la fuerza bruta al problema (en forma de gigacomputadoras que "entrenan" redes cada vez más gordas) que quieran, es un problema de calidad y no de cantidad. El paradigma actual de "IA" da para lo que da, y las aplicaciones son las que son, muy específicas, que es lo que se puede conseguir con los paradigmas creados en los años 60/70 (siguen siendo esos) pero con la potencia de hoy día. No ha habido nuevos paradigmas fundamentales desde entonces, sólo pequeñas evoluciones.

Un niño sigue siendo capaz de reconocer un gato con ver dos o tres ejemplos, a la vez que aprende lo que es un árbol y lo que son tropecientasmil cosas más, mientras que los programas actuales necesitan como mínimo decenas de miles de ejemplos correctamente clasificados para reconocer (y con sesgos si los ejemplos no están perfectamente seleccionados) una única clase de cosas y que son engañables de formas triviales. Cambiar, transferir o generalizar estos entrenamientos requieren papers enteros y cantidades enormes de preproceso. Obviamente algo fundamental se nos escapa.

El ejemplo de los coches autónomos es muy significativo. El 85% fácil del problema (por decir algo) ya se ha resuelto, pero el 15% restante es el que impide que se pueda aplicar como nos han vendido: las situaciones no previsibles. Se está empezando la casa por el tejado. Si no conoces cómo funciona el mundo, no puedes esperar interactuar de formas complejas con él. Se están intentando emular procesos cognitivos resultado de una interacción completa con el mundo durante años.
El símil que mejor se me ocurre es esperar que alguien juegue al basket como Jordan sólo a base de mirar muchísimos vídeos de cómo lo hace. Eso no funciona así. Quizá valga para el ajedrez y otros problemas con información perfecta, reglas determinísticas y acotados, pero no para el mundo físico, que no tiene ninguna de esas tres cosas.

El tener nuevos componentes que permitan nuevos paradigmas de computación no implica que tengamos idea de cómo son esos nuevos paradigmas, que es el principal problema que queda por resolver, y del que no hay ningún paso dado aún, porque no se sabe cuál es el primer paso.

Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.

Qué pereza. El mundo de "la tecnología" se ha vuelto postureo puro.

De acuerdo al 100% con una matización. El poder computativo no va a conserguir IA "de verdad", pero puede conseguir cosas "que se le parezcan" a base de simular millones de escenarios.

Yo creo que el coche autónomo llegará a ser una realidad aunque no sepa qué hacer en caso de riada o de que un avión aterrice delante nuestro en la autopista porque un humano corriente tampoco sabría qué hacer porque nunca se ha enfrentado a esas situaciones en su vida. En el momento en que las muertes por accidentes de coches autónomos sean sustancialmente menores que las de hoy dia (en las mismas condiciones de tráfico, climatología, carreteras, etc.), se hará un balance coste/beneficio y se implantará.

"Los beneficios superarán a los riesgos". ¿Les suena?
No estoy de acuerdo en los ejemplos.

Las situaciones no previstas no son cosas extremadamente raras. Las situaciones no previstas son las infinitas posibilidades de cosas rutinarias no previstas que pueden ocurrir, y que no puedes simular porque es básicamente un problema intratable (¿cómo simulas o entrenas en un modelo lo que no es predecible ni repetitivo?)

Pongo algunos ejemplos:
- interpretar las señas de un agente de la autoridad -> ¿qué son esas señas? ¿cómo interpretas los matices en ellas, que dependen de cada persona? ¿cómo deshaces la ambigüedad en los gestos? ¿cómo interpreta un programa, que te dicen que pares, que vayas rápido, despacio, etc., cuando ni siquiera hay una forma universal de hacer estas señas?

- interpretar qué es un agente de la autoridad -> ¿llevan uniforme? ¿siempre? ¿qué uniforme? ¿qué pasa si es uno de otro país? ¿qué pasa si es un disfraz (que un humano reconocería inmediatamente)? ¿qué pasa si es alguien con gorra? ¿qué pasa si es alguien con un uniforme parecido?

- ¿y en caso de emergencias? ¿cómo dejo paso al ambulancia? ¿mi programa es capaz de saltarse las normas temporalmente, haciendo "lo que más convenga" en cada caso (cómo se define eso siquiera)?

- ¿qué pasa si hay un cartel con indicaciones? ¿cómo puede el programa reconocer lo que dice el cartel, ponerlo en contexto, decidir si es relevante o no y tomar una decisión en base a ello sin dejar de seguir el resto de reglas (y entendiendo lo que pone)? A lo mejor el cartel pone "sólo laborables", con tres de las letras borradas y una con mierda encima. O pone "sólo vehículos autorizados".

- ¿cómo sabe el programa que ese papel de periódico rodando no es una piedra? ¿cómo sabe el programa que eso que está pintado ahí no es un humano sino el dibujo de un humano? ¿cómo sabe el programa que eso que parece una mancha es un bache o que eso que parece un bache es una mancha?

- ¿paro ante un animal o no? ¿qué tipo de animal? ¿y si es una vaca? ¿y si es un perro grande? ¿y si es una paloma? ¿o un gorrión?  ¿y si es una pata con pollitos detrás? ¿y si es un dibujo? ¿y si es una pelota? ¿y si es una pelota de tenis? ¿una de gomaespuma? ¿un rodamiento de acero? (todas son similares, todas tienen implicaciones diferentes para un vehículo)

- ¿eso de ahí es un vehículo muy blanco o es espacio libre? (esto fue causa de un accidente real de un Tesla) ¿esas líneas son parte de la carretera o son una polla pintada? ¿esas líneas que casi no se ven son de la carretera, o son las viejas que ya no valen? ¿ese reflejo que hace el sol en el asfalto más nuevo son marcas viales o no? ¿qué hago ante señales confusas o contradictorias de los sensores (por suciedad, sol, agua, etc.)?

- ¿como intepreto estas líneas y señales contradictorias en una carretera en obras, que se cruzan unas con otras? (la persona aquí no tiene problema ninguno porque entiende el contexto y la intención) ¿qué interpreto con una señal tapada con una bolsa de basura medio rota? ¿qué hago cuando hay errores en la propia señalización? ¿y cuando me ordenan ir en dirección aparentemente contraria porque se ha habilitado un carril del sentido opuesto de forma temporal? ¿y si sólo hay gravilla y conos para marcar el camino? ¿y si sólo hay cinta de obra marcando los límites?

Todo esto y mucho más puede pasar en cualquier momento en muchos sitios, y ya no digamos en ciudad, donde ni he entrado. Interpretar todo esto requiere una única habilidad: saber interpretar la realidad. Los modelos actuales sólo saben interpretar muestras muy concretas de la realidad y reaccionar ante casos concretos de la misma previsibles y comunes en el tráfico.

Se habla de la supuesta fiabilidad de los ordenadores a la hora de conducir, pero hay una trampa conceptual que se obvia: sumar 2 + 2 es algo que un ordenador puede hacer en nanosegundos.

Que un niño de 5 años pueda sumar 2 + 2 en un cuaderno implica una complejidad mucho mayor: el niño no tiene circuitos especializados para sumar.

Sin embargo entiende lo que se le está pidiendo con un lenguaje muy complejo y lleno de ambigüedades, sabe lo que es un número, sabe agarrar un lápiz (imitar una mano humana de forma general es hoy por hoy imposible), sabe usarlo para hacer trazos en un papel que tienen un significado y que puede interpretar o reinterpretar y además puede recibir realimentación para saber si lo que está haciendo es correcto o no, y reflexionar sobre lo que está haciendo, poniéndolo en contexto con todo lo que ya sabe.

¿Quién es más "potente"?

¿Es "mejor" un pez que un humano porque nada más rápido y respira bajo el agua, al contrario que el humano que se ahoga? ¿No será más bien que la pregunta está mal planteada?

Para conducir, estamos diciendo la falacia de que los humanos son muy poco fiables, cuando yo diría que es exactamente lo contrario. Si no fuesen tan fiables, y dada la complejidad cognitiva de la tarea y la cantidad tan inmensa de Km diarios que se hacen en el mundo, tendríamos miles de millones de accidentes todos los días. Es obvio que los seres humanos tienen puntos débiles (falta de disciplina, cansancio, incompetencia, pasar de las normas, distracciones, etc.), pero de momento son mucho más versátiles que lo que haga un programa y desde luego, un humano no decide a propósito estamparse contra algo que de repente le pareció un hueco en la carretera, en cualquier momento aleatorio, o frenar en seco porque pasó rodando un periódico en frente del coche y el programa lo interpretó como una piedra grande en medio de la carretera.

De momento no podremos saber si esas situaciones que comento son un punto débil de los coches autónomos de ahora mismo, porque no van a ponerlos a prueba en condiciones no controladas ni de broma (saben que van a fallar). De momento están en determinadas ciudades con determinadas características (sobre todo suburbios yankees), porque es donde tienen un entorno más predecible y donde no se arriesgan y la solución válida a todo es "para", porque no hay más decisiones que tomar.

Yo no tengo la demostración de que un coche autónomo pueda lidiar con situaciones que para una persona fuesen triviales. Si fuera así, ya estarían requeteimplantados, y en todo tipo de climas, ciudades, etc. No puedes entrenar ni simular lo que es impredecible por definición. Si se quiere hacer lo que nos están vendiendo, hace falta otro enfoque.
« última modificación: Septiembre 07, 2021, 21:08:31 pm por pollo »

Cadavre Exquis

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 6632
  • -Recibidas: 4916
  • Mensajes: 558
  • Nivel: 66
  • Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.Cadavre Exquis Su opinión tiene cierto peso.
    • Ver Perfil
Re:STEM
« Respuesta #112 en: Septiembre 07, 2021, 22:36:43 pm »
Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.
A raíz de esto (sobre el que hecho de que el cerebro y su funcionamiento siguen siendo grandes desconocidos para la ciencia), efectivamente, así es, y aunque se va avanzando poco a poco todavía queda mucho camino por recorrer.

Hace cinco días apareció este artículo en QuantaMagazine que me pareció muy interesante porque un grupo de científicos, queriendo arrojar algo más de luz sobre el tema, se ha preguntado cual sería el tamaño de una red neuronal que fuese capaz de "imitar" a una simple neurona.

Para el experimento hicieron una simulación "tradicional" de una neurona (eligieron una neurona de tipo piramidal del cortex de una rata) y luego trataron de crear una red neuronal lo más simple posible que fuera capaz de "imitar" a la neurona simulada.

Sin ánimo de hacer spoilers, les sorprendió comprobar que hacía falta una red neuronal bastante más compleja de lo que pensaban para que la red neuronal pudiera replicar con precisión el funcionamiento de la neurona simulada. Su conclusión es que, para imitar a una neurona "real", hace falta una red neuronal de unas 1000 "neuronas".

Citar
How Computationally Complex Is a Single Neuron?
Computational neuroscientists taught an artificial neural network to imitate a biological neuron. The result offers a new way to think about the complexity of single brain cells.
Allison Whitten | Writing Intern | September 2, 2021


Our mushy brains seem a far cry from the solid silicon chips in computer processors, but scientists have a long history of comparing the two. As Alan Turing put it in 1952: “We are not interested in the fact that the brain has the consistency of cold porridge.” In other words, the medium doesn’t matter, only the computational ability.

Today, the most powerful artificial intelligence systems employ a type of machine learning called deep learning. Their algorithms learn by processing massive amounts of data through hidden layers of interconnected nodes, referred to as deep neural networks. As their name suggests, deep neural networks were inspired by the real neural networks in the brain, with the nodes modeled after real neurons — or, at least, after what neuroscientists knew about neurons back in the 1950s, when an influential neuron model called the perceptron was born. Since then, our understanding of the computational complexity of single neurons has dramatically expanded, so biological neurons are known to be more complex than artificial ones. But by how much?

To find out, David Beniaguev, Idan Segev and Michael London, all at the Hebrew University of Jerusalem, trained an artificial deep neural network to mimic the computations of a simulated biological neuron. They showed that a deep neural network requires between five and eight layers of interconnected “neurons” to represent the complexity of one single biological neuron.

Even the authors did not anticipate such complexity. “I thought it would be simpler and smaller,” said Beniaguev. He expected that three or four layers would be enough to capture the computations performed within the cell.

Timothy Lillicrap, who designs decision-making algorithms at the Google-owned AI company DeepMind, said the new result suggests that it might be necessary to rethink the old tradition of loosely comparing a neuron in the brain to a neuron in the context of machine learning. “This paper really helps force the issue of thinking about that more carefully and grappling with to what extent you can make those analogies,” he said.

The most basic analogy between artificial and real neurons involves how they handle incoming information. Both kinds of neurons receive incoming signals and, based on that information, decide whether to send their own signal to other neurons. While artificial neurons rely on a simple calculation to make this decision, decades of research have shown that the process is far more complicated in biological neurons. Computational neuroscientists use an input-output function to model the relationship between the inputs received by a biological neuron’s long treelike branches, called dendrites, and the neuron’s decision to send out a signal.

This function is what the authors of the new work taught an artificial deep neural network to imitate in order to determine its complexity. They started by creating a massive simulation of the input-output function of a type of neuron with distinct trees of dendritic branches at its top and bottom, known as a pyramidal neuron, from a rat’s cortex. Then they fed the simulation into a deep neural network that had up to 256 artificial neurons in each layer. They continued increasing the number of layers until they achieved 99% accuracy at the millisecond level between the input and output of the simulated neuron. The deep neural network successfully predicted the behavior of the neuron’s input-output function with at least five — but no more than eight — artificial layers. In most of the networks, that equated to about 1,000 artificial neurons for just one biological neuron.

Neuroscientists now know that the computational complexity of a single neuron, like the pyramidal neuron at left, relies on the dendritic treelike branches, which are bombarded with incoming signals. These result in local voltage changes, represented by the neuron’s changing colors (red means high voltage, blue means low voltage) before the neuron decides whether to send its own signal called a “spike.” This one spikes three times, as shown by the traces of individual branches on the right, where the colors represent locations of the dendrites from top (red) to bottom (blue).

“[The result] forms a bridge from biological neurons to artificial neurons,” said Andreas Tolias, a computational neuroscientist at Baylor College of Medicine.

But the study’s authors caution that it’s not a straightforward correspondence yet. “The relationship between how many layers you have in a neural network and the complexity of the network is not obvious,” said London. So we can’t really say how much more complexity is gained by moving from, say, four layers to five. Nor can we say that the need for 1,000 artificial neurons means that a biological neuron is exactly 1,000 times as complex. Ultimately, it’s possible that using exponentially more artificial neurons within each layer would eventually lead to a deep neural network with one single layer — but it would likely require much more data and time for the algorithm to learn.

“We tried many, many architectures with many depths and many things, and mostly failed,” said London. The authors have shared their code to encourage other researchers to find a clever solution with fewer layers. But, given how difficult it was to find a deep neural network that could imitate the neuron with 99% accuracy, the authors are confident that their result does provide a meaningful comparison for further research. Lillicrap suggested it might offer a new way to relate image classification networks, which often require upward of 50 layers, to the brain. If each biological neuron is like a five-layer artificial neural network, then perhaps an image classification network with 50 layers is equivalent to 10 real neurons in a biological network.

The authors also hope that their result will change the present state-of-the-art deep network architecture in AI. “We call for the replacement of the deep network technology to make it closer to how the brain works by replacing each simple unit in the deep network today with a unit that represents a neuron, which is already — on its own — deep,” said Segev. In this replacement scenario, AI researchers and engineers could plug in a five-layer deep network as a “mini network” to replace every artificial neuron.

But some wonder whether this would really benefit AI. “I think that’s an open question, whether there’s an actual computational advantage,” said Anthony Zador, a neuroscientist at Cold Spring Harbor Laboratory. “This [work] lays the foundation for testing that.”

Outside of AI applications, the new paper also adds to a growing consensus on the strong computational power of dendritic trees and, by proxy, single neurons. Back in 2003, a trio of neuroscientists showed that the dendritic trees of a pyramidal neuron perform complex computations by modeling it as a two-layer artificial neural network. In the new paper, the authors investigated which features of the pyramidal neuron inspired the much greater complexity in their five-to-eight-layer deep neural networks. They concluded that it came from the dendritic trees, and from a specific receptor that receives chemical messengers on the surface of the dendrites — findings that were in line with previous work in the field.

Some believe the result means that neuroscientists should make the study of single neurons a bigger priority. “This paper makes thinking about dendrites and individual neurons much more important than it was before,” said Konrad Kording, a computational neuroscientist at the University of Pennsylvania. Others, like Lillicrap and Zador, suggested that focusing on neurons within a circuit will be just as important for learning how the brain actually puts the computational complexity of single neurons to use.

Regardless, the language of artificial neural networks may provide new insight into the power of neurons and, ultimately, the brain. “Thinking in terms of layers and depths and widths gives us an intuitive sense of computational complexity,” said Grace Lindsay, a computational neuroscientist at University College London. Yet Lindsay also cautions that the new work is still only comparing a model to a model. Unfortunately, it’s currently impossible for neuroscientists to record the full input-output function of a real neuron, so there’s likely more going on that the model of a biological neuron isn’t capturing. In other words, real neurons might be even more complex.

“We’re not sure that between five and eight is really the final number,” said London.
En cualquier caso, y aunque el experimento puede servir para abrir nuevos caminos de investigación, los expertos en IA no tienen nada claro que para lograr simular el cerebro haga falta simular el funcionamiento de las neuronas de la misma forma en que un avión, para volar, no tiene que mover las alas como hacen los pájaros o los insectos.

Saludos.

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 16173
  • -Recibidas: 23333
  • Mensajes: 2771
  • Nivel: 381
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #113 en: Septiembre 08, 2021, 00:47:47 am »
Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.
A raíz de esto (sobre el que hecho de que el cerebro y su funcionamiento siguen siendo grandes desconocidos para la ciencia), efectivamente, así es, y aunque se va avanzando poco a poco todavía queda mucho camino por recorrer.

Hace cinco días apareció este artículo en QuantaMagazine que me pareció muy interesante porque un grupo de científicos, queriendo arrojar algo más de luz sobre el tema, se ha preguntado cual sería el tamaño de una red neuronal que fuese capaz de "imitar" a una simple neurona.

Para el experimento hicieron una simulación "tradicional" de una neurona (eligieron una neurona de tipo piramidal del cortex de una rata) y luego trataron de crear una red neuronal lo más simple posible que fuera capaz de "imitar" a la neurona simulada.

Sin ánimo de hacer spoilers, les sorprendió comprobar que hacía falta una red neuronal bastante más compleja de lo que pensaban para que la red neuronal pudiera replicar con precisión el funcionamiento de la neurona simulada. Su conclusión es que, para imitar a una neurona "real", hace falta una red neuronal de unas 1000 "neuronas".

Citar
How Computationally Complex Is a Single Neuron?
Computational neuroscientists taught an artificial neural network to imitate a biological neuron. The result offers a new way to think about the complexity of single brain cells.

En cualquier caso, y aunque el experimento puede servir para abrir nuevos caminos de investigación, los expertos en IA no tienen nada claro que para lograr simular el cerebro haga falta simular el funcionamiento de las neuronas de la misma forma en que un avión, para volar, no tiene que mover las alas como hacen los pájaros o los insectos.

Saludos.

Eso es cierto, y no hace falta ser experto para concluir que nada obliga a ello (por todo lo que sabemos o ignoramos, podría haber infinitas formas de crear sistemas inteligentes).

Sin embargo, para poder simular un cerebro, o hacer algo que tenga una capacidad parecida, o algo al menos análogo, es necesario primero entender cómo funciona, o como mínimo por qué funciona, aunque sea muy por encima, pero ni siquiera tenemos eso. Sabemos que hay una maraña de células enviándose de forma semicoordinada impulsos, y que la frecuencia, intensidad y cadencia de estos tiene algún tipo de relevancia para el proceso, pero no sabemos por qué, ni de qué forma, ni qué relación hay entre ninguno de esos elementos. A todo esto además, se añade la complejidad extra de las interacciones químicas de sustancias que pueda haber en el cerebro (propias o extrañas). Ni siquiera sabemos por qué el cerebro reacciona como reacciona bajo la influencia de drogas, más allá de que "alteran el funcionamiento" o "bloquean determinados receptores".

La propia naturaleza del cerebro lo hace extremadamente complicado por un mero tema práctico. Aunque queramos estudiar el cerebro de, por ejemplo, una cucaracha, tenemos el problema obvio de la miniaturización. No podemos operar, ni medir, ni modificar con la precisión necesaria. Y encima es extremadamente delicado, con lo que cualquier descuido destruye lo que se quiere investigar. Por eso, no se ha podido ir más allá que "ponemos estos electrodos aquí y pasa esto, más o menos".

Ahora mismo, mi sensación es que se están imitando aspectos muy abstractos de este funcionamiento, con limitaciones obvias, pero no se tiene ningún conocimiento fundamental ya no digo de las neuronas, sino de los bloques más grandes que se forman con ellas. Lo más que se pueden hacer son correlaciones estadísticas de brocha muy gorda (por ejemplo http://apologetics-notes.comereason.org/2014/03/can-neuroscientists-use-mri-imaging-to.html ), que no deja de ser muy interesante, pero está muy lejos de que se entienda nada más allá de elucubraciones tremendamente imprecisas.

Uno de los avances reales sería comprender, aunque fuera a un nivel básico, cómo se codifican los recuerdos en la mente, ya que una las pocas conjeturas que tienen los neurocientíficos, es que el proceso cognitivo y la memoria son resultado de la propia actividad (no hay una memoria similar a la de un ordenador, para entendernos, que tenga datos concretos codificados de formas normalizadas en lugares específicos, sino que la memoria está en la propia interacción contínua y siempre cambiante entre las neuronas), y parece ser que los recuerdos y experiencias en una mente se interrelacionan todos con todos de alguna forma que no se alcanza a comprender.

También ayudaría por ejemplo comprender el porqué de otros aspectos aparentemente sin explicación, como puede ser la necesidad de dormir (donde además la actividad cerebral no sólo no para sino que aumenta), que es común a todos los seres vivos con cerebro. Lo único que se sabe es que es imprescindible para que pueda funcionar, aunque sea en microdosis.
« última modificación: Septiembre 08, 2021, 00:49:59 am por pollo »

el malo

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 6857
  • -Recibidas: 5879
  • Mensajes: 541
  • Nivel: 72
  • el malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medio
    • Ver Perfil
Re:STEM
« Respuesta #114 en: Septiembre 08, 2021, 10:56:12 am »
Inventan un circuito revolucionario que funciona como el cerebro

El nuevo circuito es una molécula orgánico-metálica de 77 átomos que hace simultáneamente de memoria y procesador, como las neuronas.

https://www.elconfidencial.com/tecnologia/novaceno/2021-09-06/circuito-nanotecnologia-cerebro_3271906/
No es por joder, pero esto no es nada nuevo, ni como invento ni como concepto. Será nuevo para el que redactó el artículo. La novedad real aquí es el tamaño. Está teorizado que este tipo de componentes pueden abrir nuevos tipos de lógica de procesamiento, pero de ahí al salto cósmico que hace el artículo (habemus cerebro electrónico) hay como varios miles de toneladas de sensacionalismo y saltos de fe.

Una de las principales causas de que no haya una IA que realmente pueda llamarse así es que no hay un modelo teórico, ni siquiera uno aproximado o muy de brocha gorda de cómo funciona en realidad un cerebro. Nadie sabe cómo localizar un recuerdo concreto en un cerebro, porque no se sabe de qué forma se guarda esta información, ni tampoco cómo se procesan las cosas ni por qué surge la conciencia.

Ya pueden echarle toda la fuerza bruta al problema (en forma de gigacomputadoras que "entrenan" redes cada vez más gordas) que quieran, es un problema de calidad y no de cantidad. El paradigma actual de "IA" da para lo que da, y las aplicaciones son las que son, muy específicas, que es lo que se puede conseguir con los paradigmas creados en los años 60/70 (siguen siendo esos) pero con la potencia de hoy día. No ha habido nuevos paradigmas fundamentales desde entonces, sólo pequeñas evoluciones.

Un niño sigue siendo capaz de reconocer un gato con ver dos o tres ejemplos, a la vez que aprende lo que es un árbol y lo que son tropecientasmil cosas más, mientras que los programas actuales necesitan como mínimo decenas de miles de ejemplos correctamente clasificados para reconocer (y con sesgos si los ejemplos no están perfectamente seleccionados) una única clase de cosas y que son engañables de formas triviales. Cambiar, transferir o generalizar estos entrenamientos requieren papers enteros y cantidades enormes de preproceso. Obviamente algo fundamental se nos escapa.

El ejemplo de los coches autónomos es muy significativo. El 85% fácil del problema (por decir algo) ya se ha resuelto, pero el 15% restante es el que impide que se pueda aplicar como nos han vendido: las situaciones no previsibles. Se está empezando la casa por el tejado. Si no conoces cómo funciona el mundo, no puedes esperar interactuar de formas complejas con él. Se están intentando emular procesos cognitivos resultado de una interacción completa con el mundo durante años.
El símil que mejor se me ocurre es esperar que alguien juegue al basket como Jordan sólo a base de mirar muchísimos vídeos de cómo lo hace. Eso no funciona así. Quizá valga para el ajedrez y otros problemas con información perfecta, reglas determinísticas y acotados, pero no para el mundo físico, que no tiene ninguna de esas tres cosas.

El tener nuevos componentes que permitan nuevos paradigmas de computación no implica que tengamos idea de cómo son esos nuevos paradigmas, que es el principal problema que queda por resolver, y del que no hay ningún paso dado aún, porque no se sabe cuál es el primer paso.

Que no os vendan motos, porque las redes neuronales, no tienen un parecido con las neuronas reales más allá de lo muy superficial. Hay muchísimos aspectos sobre el funcionamiento de las neuronas que se desconocen por completo, y hay mucha más complejidad que la que nos quieren hacer ver los artículos sensacionalistas sobre tecnología, que llevan 20 años prometiendo que tendríamos ordenadores pensantes dentro de 2 años.

Qué pereza. El mundo de "la tecnología" se ha vuelto postureo puro.

De acuerdo al 100% con una matización. El poder computativo no va a conserguir IA "de verdad", pero puede conseguir cosas "que se le parezcan" a base de simular millones de escenarios.

Yo creo que el coche autónomo llegará a ser una realidad aunque no sepa qué hacer en caso de riada o de que un avión aterrice delante nuestro en la autopista porque un humano corriente tampoco sabría qué hacer porque nunca se ha enfrentado a esas situaciones en su vida. En el momento en que las muertes por accidentes de coches autónomos sean sustancialmente menores que las de hoy dia (en las mismas condiciones de tráfico, climatología, carreteras, etc.), se hará un balance coste/beneficio y se implantará.

"Los beneficios superarán a los riesgos". ¿Les suena?
No estoy de acuerdo en los ejemplos.

Las situaciones no previstas no son cosas extremadamente raras. Las situaciones no previstas son las infinitas posibilidades de cosas rutinarias no previstas que pueden ocurrir, y que no puedes simular porque es básicamente un problema intratable (¿cómo simulas o entrenas en un modelo lo que no es predecible ni repetitivo?)

Pongo algunos ejemplos:
- interpretar las señas de un agente de la autoridad -> ¿qué son esas señas? ¿cómo interpretas los matices en ellas, que dependen de cada persona? ¿cómo deshaces la ambigüedad en los gestos? ¿cómo interpreta un programa, que te dicen que pares, que vayas rápido, despacio, etc., cuando ni siquiera hay una forma universal de hacer estas señas?

- interpretar qué es un agente de la autoridad -> ¿llevan uniforme? ¿siempre? ¿qué uniforme? ¿qué pasa si es uno de otro país? ¿qué pasa si es un disfraz (que un humano reconocería inmediatamente)? ¿qué pasa si es alguien con gorra? ¿qué pasa si es alguien con un uniforme parecido?

- ¿y en caso de emergencias? ¿cómo dejo paso al ambulancia? ¿mi programa es capaz de saltarse las normas temporalmente, haciendo "lo que más convenga" en cada caso (cómo se define eso siquiera)?

- ¿qué pasa si hay un cartel con indicaciones? ¿cómo puede el programa reconocer lo que dice el cartel, ponerlo en contexto, decidir si es relevante o no y tomar una decisión en base a ello sin dejar de seguir el resto de reglas (y entendiendo lo que pone)? A lo mejor el cartel pone "sólo laborables", con tres de las letras borradas y una con mierda encima. O pone "sólo vehículos autorizados".

- ¿cómo sabe el programa que ese papel de periódico rodando no es una piedra? ¿cómo sabe el programa que eso que está pintado ahí no es un humano sino el dibujo de un humano? ¿cómo sabe el programa que eso que parece una mancha es un bache o que eso que parece un bache es una mancha?

- ¿paro ante un animal o no? ¿qué tipo de animal? ¿y si es una vaca? ¿y si es un perro grande? ¿y si es una paloma? ¿o un gorrión?  ¿y si es una pata con pollitos detrás? ¿y si es un dibujo? ¿y si es una pelota? ¿y si es una pelota de tenis? ¿una de gomaespuma? ¿un rodamiento de acero? (todas son similares, todas tienen implicaciones diferentes para un vehículo)

- ¿eso de ahí es un vehículo muy blanco o es espacio libre? (esto fue causa de un accidente real de un Tesla) ¿esas líneas son parte de la carretera o son una polla pintada? ¿esas líneas que casi no se ven son de la carretera, o son las viejas que ya no valen? ¿ese reflejo que hace el sol en el asfalto más nuevo son marcas viales o no? ¿qué hago ante señales confusas o contradictorias de los sensores (por suciedad, sol, agua, etc.)?

- ¿como intepreto estas líneas y señales contradictorias en una carretera en obras, que se cruzan unas con otras? (la persona aquí no tiene problema ninguno porque entiende el contexto y la intención) ¿qué interpreto con una señal tapada con una bolsa de basura medio rota? ¿qué hago cuando hay errores en la propia señalización? ¿y cuando me ordenan ir en dirección aparentemente contraria porque se ha habilitado un carril del sentido opuesto de forma temporal? ¿y si sólo hay gravilla y conos para marcar el camino? ¿y si sólo hay cinta de obra marcando los límites?

Todo esto y mucho más puede pasar en cualquier momento en muchos sitios, y ya no digamos en ciudad, donde ni he entrado. Interpretar todo esto requiere una única habilidad: saber interpretar la realidad. Los modelos actuales sólo saben interpretar muestras muy concretas de la realidad y reaccionar ante casos concretos de la misma previsibles y comunes en el tráfico.

Se habla de la supuesta fiabilidad de los ordenadores a la hora de conducir, pero hay una trampa conceptual que se obvia: sumar 2 + 2 es algo que un ordenador puede hacer en nanosegundos.

Que un niño de 5 años pueda sumar 2 + 2 en un cuaderno implica una complejidad mucho mayor: el niño no tiene circuitos especializados para sumar.

Sin embargo entiende lo que se le está pidiendo con un lenguaje muy complejo y lleno de ambigüedades, sabe lo que es un número, sabe agarrar un lápiz (imitar una mano humana de forma general es hoy por hoy imposible), sabe usarlo para hacer trazos en un papel que tienen un significado y que puede interpretar o reinterpretar y además puede recibir realimentación para saber si lo que está haciendo es correcto o no, y reflexionar sobre lo que está haciendo, poniéndolo en contexto con todo lo que ya sabe.

¿Quién es más "potente"?

¿Es "mejor" un pez que un humano porque nada más rápido y respira bajo el agua, al contrario que el humano que se ahoga? ¿No será más bien que la pregunta está mal planteada?

Para conducir, estamos diciendo la falacia de que los humanos son muy poco fiables, cuando yo diría que es exactamente lo contrario. Si no fuesen tan fiables, y dada la complejidad cognitiva de la tarea y la cantidad tan inmensa de Km diarios que se hacen en el mundo, tendríamos miles de millones de accidentes todos los días. Es obvio que los seres humanos tienen puntos débiles (falta de disciplina, cansancio, incompetencia, pasar de las normas, distracciones, etc.), pero de momento son mucho más versátiles que lo que haga un programa y desde luego, un humano no decide a propósito estamparse contra algo que de repente le pareció un hueco en la carretera, en cualquier momento aleatorio, o frenar en seco porque pasó rodando un periódico en frente del coche y el programa lo interpretó como una piedra grande en medio de la carretera.

De momento no podremos saber si esas situaciones que comento son un punto débil de los coches autónomos de ahora mismo, porque no van a ponerlos a prueba en condiciones no controladas ni de broma (saben que van a fallar). De momento están en determinadas ciudades con determinadas características (sobre todo suburbios yankees), porque es donde tienen un entorno más predecible y donde no se arriesgan y la solución válida a todo es "para", porque no hay más decisiones que tomar.

Yo no tengo la demostración de que un coche autónomo pueda lidiar con situaciones que para una persona fuesen triviales. Si fuera así, ya estarían requeteimplantados, y en todo tipo de climas, ciudades, etc. No puedes entrenar ni simular lo que es impredecible por definición. Si se quiere hacer lo que nos están vendiendo, hace falta otro enfoque.

No había pensado en lo de los agentes. Si a mí a veces me cuesta descifrar lo que dicen, imagino que el ordenador se volvería loco. Aún así se me ocurrren varias soluciones al problema.

Todo lo demás que usted comenta se soluciona a base de fuerza bruta o de pequeños cambios.

Por ejemplo, como distinguir un bache de una mancha o un periódico de una piedra, eso se hace a base de cámaras y sensores. Sensores que midan la profundidad, temperatura y densidad de un objeto.

En el tema animales, un coche bien "entrenado" podría ser más eficiente que un humano porque el coche ni se asusta ni se compadece. Un humano pegará un volantazo para salvar a un perro. Un ordenador calculará si se puede dar ese volantazo con seguridad y si no se puede, frenará y seguirá recto aunque se lleve al perro por delante.

El tema de las obras es algo que puede solucionar plantando balizas al lado de la pintura amarilla. Cuando se termine la obra, se deja la carretera como estaba (sólo con líneas blancas) y se retiran las balizas. Eso "obligará" a los encargados de las obras a hacer las cosas bien y no a poner 3 conos mal puestos que a veces si se sabe lo que indican.

Con los agentes imagino que se podría hacer algo parecido. Tendrían un dispositivo con ellos  que los coches serían capaces de interpretar. Hace poco me compré un casco de realidad virtual que me llamó mucho la atención y es increíble como interpreta el movimiento de las manos con un par de cámaras y sensores que lleva a los lados. La tecnología ya está.

Todavía queda mucho para llegar hasta un nivel 5, pero incluso con nivel "4+" con asistencia humana en momentos puntuales ya has conseguido conducción que parezca autónoma. Tesla (por poner un ejemplo), puede tener un sistema de pago por suscripción y usar ese dinero para tener a 100 personas en una sala preparados para tomar los mandos de cualquier vehículo a distancia (como hacía Google Translator al principio.. parecía automático pero eran humanos revisando las traducciones).




wanderer

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 58518
  • -Recibidas: 42869
  • Mensajes: 6008
  • Nivel: 724
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #115 en: Septiembre 08, 2021, 11:27:26 am »
Sólo quería señalar que aparte de todo lo que ha señalado Pollo, está el tema de consumo de energía. Un supercomputador que trate de imitar malamente con toda una serie de redes neuronales cierto aspecto del funcionamiento del sistema nervioso de un organismo vivo, consume energía de forma desaforada, mientras que el cerebro de tal organismo se apaña mucho mejor con una ínfima fracción de la energía consumida por el supercomputador.

Es obvio que tenemos todas las capacidades de una máquina universal de Turing (sobre las cuales está basada la arquitectura de cualquier computador moderno), pues para empezar fuimos capaces de concebirlas teóricamente e implementarlas en diseños prácticos, pero también es igualmente obvio que no estamos limitados por las limitaciones intrínsecas que tienen; de la conciencia, ya ni hablo, pero todo indica que es una propiedad no-modelizable y emergente (y que no ha de estar limitada al hombre, sino también a bastantes animales superiores).
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 16173
  • -Recibidas: 23333
  • Mensajes: 2771
  • Nivel: 381
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #116 en: Septiembre 08, 2021, 13:03:35 pm »
No había pensado en lo de los agentes. Si a mí a veces me cuesta descifrar lo que dicen, imagino que el ordenador se volvería loco. Aún así se me ocurrren varias soluciones al problema.
No se volverá loco, lo que hará será tomar una decisión equivocada en el peor momento posible, potencialmente mortal o como mínimo problemas legales.
Citar
Todo lo demás que usted comenta se soluciona a base de fuerza bruta o de pequeños cambios.
Es ahí donde está el engaño.
Dime una forma de entrenar a fuerza bruta estas situaciones que he comentado. Para que algo se pueda entrenar con fuerza bruta (con los métodos actuales), tiene que repetirse decenas de miles de veces. ¿Cómo se entrena con fuerza bruta algo que por definición no se sabe cómo va a ser?
Si se hace sin fuerza bruta hay que codificarlo. Y bueno, podemos tener codificados todos los infinitos e impredecibles casos que se podrían producir.
Por eso deepmind puede jugar bien al ajedrez, al go, al Tetris o al poker, o al Space Invaders pero no a juegos que tengan objetivos a largo plazo de niveles mayores de abstracción: no se pueden resolver ni por fuerza bruta (minimax clásico) ni por heurística (redes neuronales). Hay que entender varios niveles de abstracción y comprender el porqué de lo que se está haciendo.
Es más, si uno ve cómo es ese desarrollo por fuerza bruta, es llamativa la cantidad tan brutal (valga la redundancia) de fuerza bruta necesaria. Un humano aprende a ser un gran maestro del ajedrez con muchos órdenes de magnitud menos (me lo invento) de partidas que uno de estos sistemas. Vamos, un humano jugará como mucho unos miles de partidas en su vida. Un sistema especializado exclusivamente en ajedrez como los que ha creado Google necesita cientos de miles de millones.
Está claro que no se aprende de la misma forma.
Citar
Por ejemplo, como distinguir un bache de una mancha o un periódico de una piedra, eso se hace a base de cámaras y sensores. Sensores que midan la profundidad, temperatura y densidad de un objeto.
No es cierto, porque depende totalmente del proceso que se haga con la información de esos sensores y de lo que sean capaces de medir esos sensores.
Los sensores no tienen precisión arbitraria. Tienen una concreta. Dependiendo de eso podrían ser o no ser capaces de medir este tipo de cosas. Una persona, por su sentido común (experiencia en el mundo físico) es capaz de deducir muchas más cosas sobre las consecuencias de lo que percibe (en principio mayoritariamente visual).

Precisamente ahí está la cuestión. Ni siquiera todos los coches autónomos emplean los mismos sensores para obtener la información. El LIDAR es ciego ante ciertos tipos de objetos. ¿Puede un sensor medir la profundidad de un objeto que no se ve? Un bache no es un objeto, es una irregularidad en el terreno. Dependiendo de cómo sea su forma, o las circunstancias, el sensor puede estar en una posición o circunstancias en la que no tenga la capacidad de detectar la profundidad del bache porque tal información esté oculta, mientras que una persona podría ver de lejos que determinada ausencia de información podría ser extremadamente peligrosa para el vehículo. Un ejemplo que se me viene a la cabeza es un bache lleno de agua turbia.

No es sólo una cuestión de detección, sino de interpretación de las posibles consecuencias. Y ahí el programa no tiene nada que hacer porque es un autómata que va a ciegas. Cualquier situación en la que los sensores no puedan detectar (de forma positiva) una información puede ser un desastre, y lo mismo cuando el programa es incapaz de predecir consecuencias de una situación obvia peligrosa para la que el programa no esté preparado.

¿Un derrame de aceite de motor es detectable por los sensores? ¿O por las cámaras? No digo sólo verlo. Digo interpretarlo y entender lo que implica.
Citar
En el tema animales, un coche bien "entrenado" podría ser más eficiente que un humano porque el coche ni se asusta ni se compadece. Un humano pegará un volantazo para salvar a un perro. Un ordenador calculará si se puede dar ese volantazo con seguridad y si no se puede, frenará y seguirá recto aunque se lleve al perro por delante.
No estás resolviendo ningún problema, sino dándolo por resuelto por falacia de abstracción (el ordenador "calculará" -> esto es falso, porque no hay criterios definidos para calcular).
Primero, el volantazo no es el problema. El humano puede decidir, aunque sea por reflejos, si merece la pena o no darlo. El programa no tiene ni idea de qué tiene delante, las consecuencias de ello, ni de si es peligroso o no, salvo quizá basándose en criterios muy simplones (tamaño aparente por ejemplo, que no es un mal criterio para el que está dentro del coche).
La cosa es que una persona normalmente pararía para dejar pasar al pato con pollitos. Si tu coche tira adelante, no está resolviendo nada, está ignorando el problema. Si tu coche no tira adelante, tiene un problema: cada pequeño animal que se ponga delante te podría frenar. Un gorrión o una paloma no es necesario frenar porque salen volando por sí solos. Un erizo, un gato o un perro no necesariamente. Pero todo esto el programa lo desconoce, con lo que no puede interactuar con ello de forma predecible.
Citar

El tema de las obras es algo que puede solucionar plantando balizas al lado de la pintura amarilla. Cuando se termine la obra, se deja la carretera como estaba (sólo con líneas blancas) y se retiran las balizas. Eso "obligará" a los encargados de las obras a hacer las cosas bien y no a poner 3 conos mal puestos que a veces si se sabe lo que indican.
De nuevo esta es una forma de no resolver el problema, sino de ignorarlo totalmente. Y el coche debe adaptarse a la realidad, no la realidad al coche. En el momento en el que pase cualquier imprevisto, el coche autónomo no sabría qué hacer, o peor, haría algo desastroso sin despeinarse.
Citar

Con los agentes imagino que se podría hacer algo parecido. Tendrían un dispositivo con ellos  que los coches serían capaces de interpretar. Hace poco me compré un casco de realidad virtual que me llamó mucho la atención y es increíble como interpreta el movimiento de las manos con un par de cámaras y sensores que lleva a los lados. La tecnología ya está.
O sea, que un agente sin dispositivo no es un agente. Pues puede haber mil razones por las cuales ese agente no tenga por qué tener ese dispositivo encima en ese momento, y encima se le da al agente la responsabilidad de lo que haga un vehículo.
¿Y si es un peón señalista? ¿O alguien trolleando que ha clonado uno?
Tampoco queda claro cómo funcionaría este dispositivo y cómo debería de usarse para indicar a determinados coches que hagan o no una de muchas cosas que el agente podría solicitar.

En el casco de realidad virtual tienes unos sensores de baja precisión (porque no hace falta más) con consecuencias nulas en caso de error, y en el que además se detecta la posición respecto a un punto estático y conocido de antemano. Este problema en cambio es crítico y es el resto del mundo el que no para de moverse presentando escenarios desconocidos. La tecnología de sensores lleva estando décadas.

El problema no son los sensores. Es el programa que los interpreta, del que se espera la inteligencia y sentido común de una persona (y es aquí donde los legos no entienden lo que implica, y creen que es un problema resuelto). Y yo digo que sin sentido común no se puede poner una máquina en una carretera fuera de determinados casos porque los accidentes serán cuestión de tiempo, concretamente del tiempo en el que haya una situación no prevista por el programa.
Citar

Todavía queda mucho para llegar hasta un nivel 5, pero incluso con nivel "4+" con asistencia humana en momentos puntuales ya has conseguido conducción que parezca autónoma. Tesla (por poner un ejemplo), puede tener un sistema de pago por suscripción y usar ese dinero para tener a 100 personas en una sala preparados para tomar los mandos de cualquier vehículo a distancia (como hacía Google Translator al principio.. parecía automático pero eran humanos revisando las traducciones).
Lo que demuestra la práctica es que la conducción autónoma mediocre con un humano que tenga que responder puntualmente es básicamente un humano durmiendo y poco alerta, al que se le pide que de pronto tome el control. Muy buena receta para el desastre (de hecho ya ha pasado varias veces con los Tesla por su publicidad engañosa y usuarios poco críticos).

Sobre lo de tomar el control remotamente, es una "solución" (realmente es reconocer que no la hay) válida, pero ¿y si falla la conexión? ¿Hay garantía de una conexión 100% fiable el 100% del tiempo para poder ofrecer esto? Que estamos hablando de controlar en una situación crítica y en tiempo real un vehículo, que a lo mejor está a tomar por culo perdido por ahí con una cobertura de mierda o con un tiempo de perros. Cualquier mierda acaba con la vida de alguien. Además que la solución obvia sería que el usuario tomase el control.

Por no decir el peligro de otros tipos que representa esto (hackeos, o la situación distópica que puede representar que el Gobierno, o una empresa, controlen o bloqueen un vehículo en contra de tu voluntad sin recurso e inmediatamente).

Lo de Google Translator debería dar una idea de la cantidad de humo y burbuja que hay en este tema.

Se le atribuyen propiedades cuasi milagrosas a estas técnicas, equiparando la capacidad de sumar con rapidez y precisión que tiene un procesador, con un problema de una naturaleza totalmente diferente y con una complejidad enorme (por la cantidad de casos posibles). No sirve con que funcione bien el 95% del tiempo, eso es una puta mierda si te juegas la vida.

Pese a lo que se diga, los humanos no conducirán mejor, pero no toman decisiones absurdas en situaciones triviales. Yo no confiaría ni de puta coña mi vida a un programa hecho con estas técnicas, ni a una de estas empresas, porque desde el principio se está vendiendo moto a unos niveles sonrojantes, y ya se ha demostrado lo que les importan sus usuarios, siendo Tesla el ejemplo más claro, vendiendo como conducción autónoma algo que claramente no lo es y que por ello ya ha provocado muertes.

P.D. Yo seré el primero en reconocer que se ha conseguido lo que nos venden, pero si y sólo si consiguen lo que han prometido. Y de momento, no están ni cerca. Sí reconozco que han resuelto una parte importante del problema, la fácil que se puede conseguir con trucos ingeniosos. La parte que queda es la jodida. Se va a tardar mucho en conseguir esa.
Mi previsión es que salvo que haya un nuevo paradigma, la conducción autónoma se va a quedar relegada a autopistas (y con riesgos) y a suburbios de regiones con buen tiempo. Si algún día se masifica, veremos también accidentes, lo único que serán menos frecuentes pero con consecuencias mucho peores y por motivos diferentes. Esa visión de que "las máquinas no se pueden equivocar" es no entender el problema. La máquina nunca se equivoca. El programa efectivamente se ejecuta al pie de la letra. Otra cuestión es si el programa está bien hecho o no.
« última modificación: Septiembre 08, 2021, 13:35:10 pm por pollo »

el malo

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 6857
  • -Recibidas: 5879
  • Mensajes: 541
  • Nivel: 72
  • el malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medioel malo Destaca sobre el usuario medio
    • Ver Perfil
Re:STEM
« Respuesta #117 en: Septiembre 08, 2021, 14:48:43 pm »
Pollo respondo en un nuevo post para no seguir incrementando el número de quotes.

Muchos de esos casos que usted pone ya podrían darse hoy. Dice que qué pasaría si alguien coloca mal una baliza (intencionadamente o no), pues lo mismo que si pinta mal una raya amarilla o se deja un cono en medio de la carretera. Si hay espacio suficiente no pasará nada, pero si está detrás de un cambio de rasante sin visibilidad, pues te comes el cono. 

El tema de la de conectividad, seguro que no haría el mismo razonamiento a la hora de comprarse un móvil. ¿Para qué gastarse cientos de euros en un aparato si el día que vaya a la montaña y tenga un accidente no puedo usarlo para llamar a emergencias porque no hay cobertura?
No podremos tener conducción semi autónoma en la carretera que une el Pozo de la Serna con Alcubillas, pero sí la tendremos en las vías principales y secundarias de la red viaria que es por donde pasa más del 80% del tráfico.
Habría tramos señalizados donde la conducción autónoma con asistencia sea posible y otros en los que no. Igual los coches de Tráfico podrían equiparse con repetidores 5G para que un humano tome los mandos de los coches en caso de que haya una intervención en un lugar con baja conectividad.

Si se quiere y es rentable, se puede hacer. Hace 30 años era totalmente impensable que yo pudiera hacer una foto del chuletón que me voy a comer y enviársela a usted con las coordenadas exactas del restaurante para que su pantalla le diga exactamente cómo llegar. En comparación con eso, el reto tecnológico de tener una conducción autónoma asistida es menor.

El resto, es cuestión de ir aprendiendo. Frenar cuando hay patitos y no hay peligro de que me embistan por detrás, no frenar cuando hay una paloma porque el 99% de las veces sale volando. Si el sistema está lo suficientemente implantado, los propios coches mandarían señales al resto de los coches de la vía avisando de un firme deslizante en cierto punto o de un obstáculo.

El hackeo ya es un problema hoy día. Si un empleado de Tesla puede hacer que su coche se pare en medio de la autopista, también puede hacerlo un hacker.

Entiendo los problemas que usted plantea y estoy de acuerdo con ellos, pero cosas más difíciles se han hecho. No es IA, pero se le parece lo suficiente como para hacer la tarea.

Derby

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 12888
  • -Recibidas: 58477
  • Mensajes: 6749
  • Nivel: 677
  • Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.Derby Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #118 en: Septiembre 12, 2021, 19:14:19 pm »
Human augmentation= the application of science and technologies to temporarily or permanently improve human performance

https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/986301/Human_Augmentation_SIP_access2.pdf
“Everything can be taken from a man but one thing: the last of the human freedoms — to choose one’s attitude in any given set of circumstances, to choose one’s own way.”— Viktor E. Frankl
https://www.hks.harvard.edu/more/policycast/happiness-age-grievance-and-fear

wanderer

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 58518
  • -Recibidas: 42869
  • Mensajes: 6008
  • Nivel: 724
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:STEM
« Respuesta #119 en: Septiembre 13, 2021, 12:51:02 pm »
Ya había aparecido esto en éste hilo, pero creo que merece la pena traerlo:

Citar

UNA OBRA DE INGENIERíA ÚNICA
Esta desconocida máquina decidirá la guerra de los microchips (y China no puede copiarla)
Para fabricar algo tan diminuto como el procesador de un iPhone, se necesita un 'robot' de 180 toneladas. Y los únicos que pueden fabricarlos son unos holandeses que se han destapado como un actor crítico en la industria

https://www.elconfidencial.com/tecnologia/2021-09-12/asml-cotizacion-maquinas-industria-microchips_3284662/
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

Tags:
 


SimplePortal 2.3.3 © 2008-2010, SimplePortal