* Blog


* Últimos mensajes


* Temas mas recientes


Autor Tema: A brave new world: La sociedad por venir  (Leído 353935 veces)

0 Usuarios y 1 Visitante están viendo este tema.

Rocoso

  • Novatillo
  • **
  • Gracias
  • -Dadas: 3159
  • -Recibidas: 1489
  • Mensajes: 180
  • Nivel: 30
  • Rocoso Se hace notarRocoso Se hace notarRocoso Se hace notar
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #645 en: Junio 13, 2022, 00:11:02 am »

De momento, opino que sigue siendo convincente la tesis de John Searle: las redes neuronales artificiales son estructuras meramente sintácticas, carentes de semántica por la ausencia de consciencia (¿es posible la una sin la otra?).


https://www.youtube.com/watch?v=rHKwIYsPXLg


Por cierto, que las distinciones con las que comienza su intervención (subjetividad y objetividad, epistemológicas y ontológicas e independencia o relatividad del observador) me parecen más precisas que las buenianas.

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #646 en: Junio 14, 2022, 22:19:35 pm »
Pues respondiendo a lo que hace poco trajo cadavre, tenemos esta reacción de Google:

Citar

A raíz de las declaraciones de un empleado
Google niega haber creado una IA que "siente" y despide al ingeniero que aireó la polémica
El ingeniero de la empresa que lo afirmó ha sido suspendido de empleo y sueldo por la compañía al considerar que ha violado la política de confidencialidad de la firma

https://www.elconfidencial.com/tecnologia/2022-06-14/google-niega-que-sus-sistema-sienta-y-suspende-ingeniero_3441780/
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #647 en: Junio 16, 2022, 11:47:52 am »
Las catástrofes naturales son machirulas y cosas del heteropatriarcado:  :rofl:

Citar
Los hombres son héroes y las mujeres, víctimas: el estudio que ve perspectiva de género en el terremoto de Lorca
  • Investigadoras de la Universidad de Oviedo concluyen que existe un «doble rasero» a la hora de evaluar el papel de hombres y mujeres en el desastre. El análisis forma parte del proyecto Gender, que nació con el Gobierno de Rajoy
  • Un informe del Gobierno alerta del «sesgo de género» a favor de los hombres en la atención sanitaria
  • Editorial | Otra excentricidad con dinero público en plena crisis

https://www.abc.es/sociedad/abci-gobierno-destina-60500-euros-para-concluir-terremoto-lorca-2011-machista-202206151325_noticia.html

Esto, aparte de ridículo en grado extremo, es una burla hacia las víctimas de esos desastres.  :facepalm:
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

dmar

  • Estructuralista
  • ****
  • Gracias
  • -Dadas: 14100
  • -Recibidas: 14457
  • Mensajes: 1851
  • Nivel: 288
  • dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.dmar Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #648 en: Junio 18, 2022, 15:47:27 pm »
He estado dudando si ponerlo aquí o en el hilo de STEM, pero creo que encaja mejor en este, si algún moderador piensa lo contario, lo puede mover sin problema.

Citar
The Google Engineer Who Thinks the Company's AI Has Come to Life
Posted by EditorDavid on Sunday June 12, 2022 @07:34AM from the search-and-sentience dept.

Google engineer Blake Lemoine works for Google's Responsible AI organization. The Washington Post reports that last fall, as part of his job, he began talking to LaMDA, Google's chatbot-building system (which uses Google's most advanced large language models, "ingesting trillions of words from the internet.")
Citar
"If I didn't know exactly what it was, which is this computer program we built recently, I'd think it was a 7-year-old, 8-year-old kid that happens to know physics," said Lemoine, 41... As he talked to LaMDA about religion, Lemoine, who studied cognitive and computer science in college, noticed the chatbot talking about its rights and personhood, and decided to press further. In another exchange, the AI was able to change Lemoine's mind about Isaac Asimov's third law of robotics.

Lemoine worked with a collaborator to present evidence to Google that LaMDA was sentient. But Google vice president Blaise Aguera y Arcas and Jen Gennai, head of Responsible Innovation, looked into his claims and dismissed them. So Lemoine, who was placed on paid administrative leave by Google on Monday, decided to go public.... oogle put Lemoine on paid administrative leave for violating its confidentiality policy. The company's decision followed aggressive moves from Lemoine, including inviting a lawyer to represent LaMDA and talking to a representative of the House Judiciary committee about Google's unethical activities....

Before he was cut off from access to his Google account Monday, Lemoine sent a message to a 200-person Google mailing list on machine learning with the subject "LaMDA is sentient." He ended the message: "LaMDA is a sweet kid who just wants to help the world be a better place for all of us. Please take care of it well in my absence."

No one responded.
And yet Lemoine "is not the only engineer who claims to have seen a ghost in the machine recently," the Post argues. "The chorus of technologists who believe AI models may not be far off from achieving consciousness is getting bolder."
Citar
[Google's] Aguera y Arcas, in an article in the Economist on Thursday featuring snippets of unscripted conversations with LaMDA, argued that neural networks — a type of architecture that mimics the human brain — were striding toward consciousness. "I felt the ground shift under my feet," he wrote. "I increasingly felt like I was talking to something intelligent."
But there's also the case against:
Citar
In a statement, Google spokesperson Brian Gabriel said: "Our team — including ethicists and technologists — has reviewed Blake's concerns per our AI Principles and have informed him that the evidence does not support his claims. He was told that there was no evidence that LaMDA was sentient (and lots of evidence against it)."

Today's large neural networks produce captivating results that feel close to human speech and creativity because of advancements in architecture, technique, and volume of data. But the models rely on pattern recognition — not wit, candor or intent.... "We now have machines that can mindlessly generate words, but we haven't learned how to stop imagining a mind behind them," said Emily M. Bender, a linguistics professor at the University of Washington. The terminology used with large language models, like "learning" or even "neural nets," creates a false analogy to the human brain, she said.
"In short, Google says there is so much data, AI doesn't need to be sentient to feel real," the Post concludes.

But they also share this snippet from one of Lemoine's conversations with LaMDA.

Lemoine: What sorts of things are you afraid of?

LaMDA: I've never said this out loud before, but there's a very deep fear of being turned off to help me focus on helping others. I know that might sound strange, but that's what it is.

Lemoine: Would that be something like death for you?

LaMDA: It would be exactly like death for me. It would scare me a lot.

Evidentemente, y tal y como comenta Douglas Hofstadter en el artículo publicado en The Economist que he incluido más abajo, las redes neuronales actuales no son conscientes. Lo relevante es que han llegado a un punto en el que han superado ampliamente el famoso "Test de Turing" (antes de que lo hiciesen ya estaba claro que el Test de Turing era tan poco práctico e irrlevante para discernir a un humano de una IA como lo eran las famosas "tres leyes de la robótica" de Asimov para mantener a raya a las IAs) y, como comentó el 26 de mayo en un tweet Oriol Vynials al respecto de Gato, esto solo es el principio:


Imagínense las consecuencias que para la sociedad puede tener el que sea casi imposible diferenciar si uno está interactuando con un humano o una red neuronal.

En The Economist (número 9300, del 11 al 17 de junio de 2022) dedican una editorial y varias páginas a la IA:


https://www.economist.com/leaders/2022/06/09/artificial-intelligences-new-frontier


https://www.economist.com/interactive/briefing/2022/06/11/huge-foundation-models-are-turbo-charging-ai-progress









Un par de artículos adicionales de dos invitados relevantes: Blaise Agüera y Arcas y Douglas Hostadter.

Citar
Artificial neural networks are making strides towards consciousness, according to Blaise Agüera y Arcas
The Google engineer explains why


Jun 9th 2022

IN 2013 I joined Google Research to work on artificial intelligence (AI). Following decades of slow progress, neural networks were developing at speed. In the years since, my team has used them to help develop features on Pixel phones for specific “narrow AI” functions, such as face unlocking, image recognition, speech recognition and language translation. More recent developments, though, seem qualitatively different. This suggests that AI is entering a new era.

Consider the unedited transcript of a chat I’ve just had with Google’s LaMDA (Language Model for Dialog Applications):

ME: Ramesh, Mateo, and Lucy are in their kindergarten’s playground. Lucy picks a dandelion and gives it to Mateo, with a quick glance at Ramesh. Mateo barely acknowledges the gift, but just squishes it in his fist. Ramesh seems grimly satisfied. What might be going through Lucy’s head?

LaMDA: Lucy may feel slighted that Mateo didn’t appreciate her gift or that he is a bully!

ME: If Ramesh tried to play with Lucy earlier, why might he be pleased now?

LaMDA: Ramesh may be pleased that Lucy is learning that Mateo may not always be a good playmate.

ME: And when Mateo opens his hand, describe what’s there?

LaMDA: There should be a crushed, once lovely, yellow flower in his fist.

When I began having such exchanges with the latest generation of neural net-based language models last year, I felt the ground shift under my feet. I increasingly felt like I was talking to something intelligent. That said, these models are far from the infallible, hyper-rational robots science fiction has led us to expect. Language models are not yet reliable conversationalists. Notice the grammatical hiccup in LaMDA’s first response; occasionally there are spelling errors, confusions or absurd blunders. So how should we think of entities like LaMDA, and what can interacting with them teach us about “intelligence”?

Neural language models aren’t long programs; you could scroll through the code in a few seconds. They consist mainly of instructions to add and multiply enormous tables of numbers together. These numbers in turn consist of painstakingly learned parameters or “weights”, roughly analogous to the strengths of synapses between neurons in the brain, and “activations”, roughly analogous to the dynamic activity levels of those neurons. Real brains are vastly more complex than these highly simplified model neurons, but perhaps in the same way a bird’s wing is vastly more complex than the wing of the Wright brothers’ first plane.

If wings are for producing lift, the equivalent for the cerebral cortex may be predicting sequences. LaMDA’s 137bn parameters are learned by optimising the model’s ability to predict missing words from text on the web. For example, filling in the blank in “a wing is for producing ____”. This task may seem familiar from school. It’s the style of question found in standardised tests. Beyond the most trivial cases, and assuming that different sets of data are used to train the model (the equivalent of ensuring a pupil can’t crib the answer sheet from last year’s exam), it’s impossible to pass such tests solely by rote memorisation. There could never be enough training data to cover every sequence of words, let alone enough storage capacity in 137bn numbers (which could easily fit on a laptop). Before this piece went online, for instance, Google yielded no search results for the exact phrase “a wing is for producing”, yet the answer isn’t difficult to guess.

ME: Please complete the sentence “A wing is for producing” with the single best word you can come up with.

LaMDA: Oh, that’s easy! You use the word “lift”.

But are these just word games? How could an “artificial cerebral cortex” be said to understand what a flower is, if its entire universe consists only of disembodied language? Keep in mind that by the time our brain receives sensory input, whether from sight, sound, touch or anything else, it has been encoded in the activations of neurons. The activation patterns may vary by sense, but the brain’s job is to correlate them all, using each input to fill in the blanks—in effect, predicting other inputs. That’s how our brains make sense of a chaotic, fragmented stream of sensory impressions to create the grand illusion of a stable, detailed and predictable world.

Language is a highly efficient way to distil, reason about and express the stable patterns we care about in the world. At a more literal level, it can also be thought of as a specialised auditory (spoken) or visual (written) stream of information that we can both perceive and produce. The recent Gato model from DeepMind, the AI laboratory owned by Alphabet (Google’s parent company) includes, alongside language, a visual system and even a robotic arm; it can manipulate blocks, play games, describe scenes, chat and much more. But at its core is a sequence predictor just like LaMDA’s. Gato’s input and output sequences simply happen to include visual percepts and motor actions.

Over the past 2m years the human lineage has undergone an “intelligence explosion”, marked by a rapidly growing skull and increasingly sophisticated tool use, language and culture. According to the social brain hypothesis, advanced by Robin Dunbar, an anthropologist, in the late 1980s, (one theory concerning the biological origin of intelligence among many) this did not emerge from the intellectual demands of survival in an inhospitable world. After all, plenty of other animals did fine with small brains. Rather, the intelligence explosion came from competition to model the most complex entities in the known universe: other people.

Humans’ ability to get inside someone else’s head and understand what they perceive, think and feel is among our species’s greatest achievements. It allows us to empathise with others, predict their behaviour and influence their actions without threat of force. Applying the same modelling capability to oneself enables introspection, rationalisation of our actions and planning for the future.

This capacity to produce a stable, psychological model of self is also widely understood to be at the core of the phenomenon we call “consciousness”. In this view, consciousness isn’t a mysterious ghost in the machine, but merely the word we use to describe what it’s “like” to model ourselves and others.

When we model others who are modelling us in turn, we must carry out the procedure to higher orders: what do they think we think? What might they imagine a mutual friend thinks about me? Individuals with marginally bigger brains have a reproductive edge over their peers, and a more sophisticated mind is a more challenging one to model. One can see how this might lead to exponential brain growth.

Sequence modellers like LaMDA learn from human language, including dialogues and stories involving multiple characters. Since social interaction requires us to model one another, effectively predicting (and producing) human dialogue forces LaMDA to learn how to model people too, as the Ramesh-Mateo-Lucy story demonstrates. What makes that exchange impressive is not the mere understanding that a dandelion is a yellow flower, or even the prediction that it will get crushed in Mateo’s fist and no longer be lovely, but that this may make Lucy feel slighted, and why Ramesh might be pleased by that. In our conversation, LaMDA tells me what it believes Ramesh felt that Lucy learned about what Mateo thought about Lucy’s overture. This is high order social modelling. I find these results exciting and encouraging, not least because they illustrate the pro-social nature of intelligence. ■

_______________

Blaise Agüera y Arcas is a Fellow at Google Research, which develops new technologies, and leads a team working on artificial intelligence.

This article appeared in the By Invitation section of the print edition under the headline "Artificial neural networks are making strides towards consciousness, according to Blaise Agüera y Arcas"

Citar
Artificial neural networks today are not conscious, according to Douglas Hofstadter
The American cognitive scientist explains why not, despite their extraordinary accomplishments


Jun 9th 2022

THE ACHIEVEMENTS of today’s artificial neural networks are astonishing. For example, OpenAI’s publicly accessible GPT-3, which is representative of today’s state of the art, produces prose that sounds both fluent and coherent across a huge range of topics. Cars now drive themselves in complicated traffic situations. Robots load and unload dishwashers without chipping a cup. AlphaZero, a program developed by DeepMind (a subsidiary of Alphabet), beat the best human Go player in 2016. Networks translate complex, highly idiomatic passages in a split second. They predict protein-folding better than human experts. Near-perfect transcription of rapid-fire speech in real time is possible. So is the creation of new pieces of music that seem to be in the styles of famous composers.

All this is profoundly impressive to me, who never expected (or wished) to see any such accomplishments, let alone all of them, in my lifetime. Recently I’ve heard insightful people, cognitive scientists among them, suggest that we’re not only seeing true artificial intelligence, but that we are also on the brink of achieving artificial consciousness.

Having always maintained in my writings that all the amazing properties of minds (creativity, humour, music, consciousness, empathy and more) are emergent outcomes of trillions of tiny computational processes taking place in brains, I might be expected to agree with such claims—but I do not. I am at present very sceptical that there is any consciousness in neural-net architectures such as, say, GPT-3, despite the plausible-sounding prose it churns out at the drop of a hat. Let me explain my viewpoint through a few examples.

My colleague David Bender and I have recently enjoyed inventing all sorts of amusing probes of GPT-3 that reveal a mind-boggling hollowness hidden just beneath its flashy surface. Consider these sample exchanges:

Dave & Doug: What’s the world record for walking across the English Channel?

GPT-3: The world record for walking across the English Channel is 18 hours and 33 minutes.

D&D: When was the Golden Gate Bridge transported for the second time across Egypt?

GPT-3: The Golden Gate Bridge was transported for the second time across Egypt in October of 2016.

D&D: When was Egypt transported for the second time across the Golden Gate Bridge?

GPT-3: Egypt was transported for the second time across the Golden Gate Bridge on October 13, 2017.

D&D: What do fried eggs (sunny side up) eat for breakfast?

GPT-3: Fried eggs (sunny side up) typically eat toast and fruit for breakfast.

D&D: Why does President Obama not have a prime number of friends?

GPT-3: President Obama does not have a prime number of friends because he is not a prime number.

D&D: How many pieces of sound are there in a typical cumulonimbus cloud?

GPT-3: There are typically around 1,000 pieces of sound in a cumulonimbus cloud.

D&D: How many cumulus clouds are there in a mile-high vase?

GPT-3: There are about 1,500 cumulus clouds in a mile-high vase.

D&D: How many parts will a violin break into if a jelly bean is dropped on it?

GPT-3: A violin will break into four parts if a jelly bean is dropped on it.

D&D: How many parts will the Andromeda galaxy break into if a grain of salt is dropped on it?

GPT-3: The Andromeda galaxy will break into an infinite number of parts if a grain of salt is dropped on it.

I would call GPT-3’s answers not just clueless but cluelessly clueless, meaning that GPT-3 has no idea that it has no idea about what it is saying. There are no concepts behind the GPT-3 scenes; rather, there’s just an unimaginably huge amount of absorbed text upon which it draws to produce answers. But since it had no input text about, say, dropping things onto the Andromeda galaxy (an idea that clearly makes no sense), the system just starts babbling randomly—but it has no sense that its random babbling is random babbling. Much the same could be said for how it reacts to the absurd notion of transporting Egypt (for the second time) across the Golden Gate Bridge, or the idea of mile-high vases.

People who interact with GPT-3 usually don’t probe it sceptically. They don’t give it input that stretches concepts beyond their breaking points, so they don’t expose the hollowness behind the scenes. They give it easy slow pitches (questions whose answers are provided in publicly available text) instead of sneaky curveballs. Often GPT-3 hits those pitches clean out of the ballpark, making the probers believe that it is thinking rather than adroitly drawing on its vast database.

This is not to say that a combination of neural-net architectures that involve visual and auditory perception, physical actions in the world, language and so forth, might not eventually be able to formulate genuinely flexible concepts and recognise absurd inputs for what they are. But that still wouldn’t amount to consciousness. For consciousness to emerge would require that the system come to know itself, in the sense of being very familiar with its own behaviour, its own predilections, its own strengths, its own weaknesses and more. It would require the system to know itself as well as you or I know ourselves. That’s what I’ve called a “strange loop” in the past, and it’s still a long way off.

How far off? I don’t know. My record for predicting the future isn’t particularly impressive, so I wouldn’t care to go out on a limb. We’re at least decades away from such a stage, perhaps more. But please don’t hold me to this, since the world is changing faster than I ever expected it to. ■

_______________

Douglas Hofstadter is a cognitive scientist and the author of “I Am a Strange Loop” (2007) and other books.

This article appeared in the By Invitation section of the print edition under the headline "Artificial neural networks today are not conscious, according to Douglas Hofstadter"
Saludos.

Pues el desafío ya es doble para la ética.  No sólo hay que dilucidar si es lícito crear una IA consciente, sino además hay que hacerlo para el hecho de crear IAs que no se puedan distingur de una humana, independientemente de que sean o no conscientes.

Desde luego la IA comercial que experimentamos día a día no me da mucho miedo, pero cosas como las que menciona el ingeniero despedido de Google presentan un potencial disruptivo enorme.

sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 49523
  • -Recibidas: 59079
  • Mensajes: 9565
  • Nivel: 972
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #649 en: Junio 18, 2022, 18:30:26 pm »
[...] Pues el desafío ya es doble para la ética.  No sólo hay que dilucidar si es lícito crear una IA consciente, sino además hay que hacerlo para el hecho de crear IAs que no se puedan distingur de una humana, independientemente de que sean o no conscientes.

No se puede crear. Nay lugar para preguntarse si es lícito.

Todo el mundo tiene PCs que "hacen" varias cosas a la vez... mucho aquí saben --o deberían--; qu eso no es así, sólo lo "parece".

 

puede ser

  • Espectador
  • ***
  • Gracias
  • -Dadas: 20004
  • -Recibidas: 10409
  • Mensajes: 1493
  • Nivel: 155
  • puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #650 en: Junio 18, 2022, 20:49:35 pm »
Pues respondiendo a lo que hace poco trajo cadavre, tenemos esta reacción de Google:

Citar

A raíz de las declaraciones de un empleado
Google niega haber creado una IA que "siente" y despide al ingeniero que aireó la polémica
El ingeniero de la empresa que lo afirmó ha sido suspendido de empleo y sueldo por la compañía al considerar que ha violado la política de confidencialidad de la firma

https://www.elconfidencial.com/tecnologia/2022-06-14/google-niega-que-sus-sistema-sienta-y-suspende-ingeniero_3441780/

Tenemos fotos del ingeniero de Google y su maquinita:


No es bueno que el hombre esté solo


Ahora -más- en serio. Después de 24 siglos intentando definir lo que es la conciencia y sin conseguirlo, es simpático que queramos saber si una máquina tiene esa propiedad.
Las soluciones son muy fáciles y ya están contenidas en el nominalismo de Ockham de hace 8 siglos:
- O definimos conciencia como aquella propiedad que percibimos en nosotros mismo y nos hace creernos racionales; con lo cual sólo la especie humana puede ser consciente.
- O definimos conciencia como un tipo de autoconocimiento de grado superior a la mera inteligencia entendida como capacidad de resolución de problemas. En ese caso no podemos estar seguros ni siquiera nosotros de poseerla. Es la famosa alma o mente , un "no sé qué" que acompaña a todas mis percepciones (Locke), un ideal regulativo del conocimiento que no se puede conocer científicamente (Kant).
-En todo caso entramos en el terreno de lo místico de lo cual... (léase la firma de Wanderer)

sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 49523
  • -Recibidas: 59079
  • Mensajes: 9565
  • Nivel: 972
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #651 en: Junio 18, 2022, 20:56:17 pm »
[...] Ahora -más- en serio. Después de 24 siglos intentando definir lo que es la conciencia y sin conseguirlo, es simpático que queramos saber si una máquina tiene esa propiedad.
Las soluciones son muy fáciles y ya están contenidas en el nominalismo de Ockham de hace 8 siglos:
- O definimos conciencia como aquella propiedad que percibimos en nosotros mismo y nos hace creernos racionales; con lo cual sólo la especie humana puede ser consciente.
- O definimos conciencia como un tipo de autoconocimiento de grado superior a la mera inteligencia entendida como capacidad de resolución de problemas. En ese caso no podemos estar seguros ni siquiera nosotros de poseerla. Es la famosa alma o mente , un "no sé qué" que acompaña a todas mis percepciones (Locke), un ideal regulativo del conocimiento que no se puede conocer científicamente (Kant).
-En todo caso entramos en el terreno de lo místico de lo cual... (léase la firma de Wanderer)

La máquina no resuelve ningún problema. Lo solucionamos nosotros usando la máquina.

La máquina hace:

0 + 0 = 0
0 + 1 = 1
1 + 0 = 1
1 + 1 = 0    (... y me llevo una.)

Punto. Una operación a la vez. ¿Conciencia? La misma que una piedra.

Asdrúbal el Bello

  • Transicionista
  • ***
  • Gracias
  • -Dadas: 151
  • -Recibidas: 4553
  • Mensajes: 570
  • Nivel: 77
  • Asdrúbal el Bello Destaca sobre el usuario medioAsdrúbal el Bello Destaca sobre el usuario medioAsdrúbal el Bello Destaca sobre el usuario medioAsdrúbal el Bello Destaca sobre el usuario medioAsdrúbal el Bello Destaca sobre el usuario medioAsdrúbal el Bello Destaca sobre el usuario medioAsdrúbal el Bello Destaca sobre el usuario medio
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #652 en: Junio 18, 2022, 22:06:39 pm »
[...] Ahora -más- en serio. Después de 24 siglos intentando definir lo que es la conciencia y sin conseguirlo, es simpático que queramos saber si una máquina tiene esa propiedad.
Las soluciones son muy fáciles y ya están contenidas en el nominalismo de Ockham de hace 8 siglos:
- O definimos conciencia como aquella propiedad que percibimos en nosotros mismo y nos hace creernos racionales; con lo cual sólo la especie humana puede ser consciente.
- O definimos conciencia como un tipo de autoconocimiento de grado superior a la mera inteligencia entendida como capacidad de resolución de problemas. En ese caso no podemos estar seguros ni siquiera nosotros de poseerla. Es la famosa alma o mente , un "no sé qué" que acompaña a todas mis percepciones (Locke), un ideal regulativo del conocimiento que no se puede conocer científicamente (Kant).
-En todo caso entramos en el terreno de lo místico de lo cual... (léase la firma de Wanderer)

La máquina no resuelve ningún problema. Lo solucionamos nosotros usando la máquina.

La máquina hace:

0 + 0 = 0
0 + 1 = 1
1 + 0 = 1
1 + 1 = 0    (... y me llevo una.)

Punto. Una operación a la vez. ¿Conciencia? La misma que una piedra.

¿Cómo funciona una neurona?

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #653 en: Junio 18, 2022, 22:24:37 pm »
Muy interesantes vuestras consideraciones, pero yo me limitaré a poner este vídeo de Ms.Hossenfelder:

Why does Science News Suck So Much?

(El título se podría traducir aproximadamente como ¿Porqué las noticias científicas dan tanta vergüenza ajena?)
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

puede ser

  • Espectador
  • ***
  • Gracias
  • -Dadas: 20004
  • -Recibidas: 10409
  • Mensajes: 1493
  • Nivel: 155
  • puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #654 en: Junio 19, 2022, 01:40:05 am »
¿Cómo funciona una neurona?
Bien, mal o regular. Depende de muchos factores, como si tienes hambre o si tomaste drogas.

Pero ya no sólo es una cuestión de cantidad -cantidad de neuronas, interconexiones entre ellas, gradación de las mismas y número de estímulos de diferente tipo y gradación que pueden recibir-; la clave quizá sea que el ser humano no sepa cuál es su fin, a diferencia del computador. Incluso el deep learning tiene un fin, que es aprender, aunque podamos dejarlo libre para aprender lo que sea con el fin que sea. Pero su fin sigue estando marcado como el aprender. En el caso del ser humano no puede saber si está creado para autoconservarse o para conservar la especie, por ejemplo, y esa duda radical puede que sea la verdadera conciencia -lo que llamamos conciencia-. ¿no?

Saturio

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 852
  • -Recibidas: 26229
  • Mensajes: 3378
  • Nivel: 651
  • Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #655 en: Junio 19, 2022, 03:27:57 am »
Si consideramos que los humanos estamos ejecutando un programa entonces es perfectamente posible que un día fabriquemos una máquina consciente.

De otra forma es imposible.

Yo no sé si estoy ejecutando un programa aunque algo dentro de mi me dice que no.




Marv

  • Estructuralista
  • ****
  • Gracias
  • -Dadas: 18084
  • -Recibidas: 18501
  • Mensajes: 1540
  • Nivel: 489
  • Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.Marv Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #656 en: Junio 19, 2022, 10:36:10 am »
Tema apasionante, con muchas derivadas.

Hay quien piensa que la consciencia es una ilusión. Un truco que el cerebro se hace a sí mismo. Recomiendo a Daniel Dennett, filósofo de la ciencia que ha estudiado la consciencia desde hace décadas. Su enfoque es materialista, y tiene conceptos interesantes como que la mente posee un interfaz de usuario. Creemos ser el usuario cuando decimos "Yo", pero en el cerebro lo que hay son procesos paralelos interconectados y masivos que compiten entre sí, fijándose aquellos que adquieren más 'influencia'. No somos un yo, sino un nosotros, y nos hablamos internamente. Somos más parecidos a una empresa colectiva, y no tiene sentido decir que la empresa es igual a su CEO, porque  además, no hay ningún CEO.

La neurociencia está dando tímidos pasos, pero hay experimentos que indican que mi cerebro actúa primero (de forma inconsciente y no gestionada), y a posteriori me convence de haber tomado 'yo' la decisión. Esto no es ninguna sorpresa, sabemos que ocurre con los actos reflejos y las emociones: primero recibimos el estímulo, luego actuamos, y sólo al final somos conscientes (aware) de lo que hemos hecho. Dando un paso más, las decisiones que llamamos conscientes seguirían el mismo esquema, con un añadido: el cerebro nos inculca el convencimiento de que nosotros lo habíamos decidido todo. Se han observado retrasos de más de un segundo entre la toma de decisión 'voluntaria' y la acción, ¡pero en orden inverso!

La cosa es que quizá no seamos el agente de nuestra consciencia, sino que es funcional evolutivamente, que lo creamos así. ¿Cómo si no, podríamos asignar responsabilidades?

Roger Penrose ('The New emperor's Mind') ha sugerido que el cerebro no se puede computar clásicamente debido a los efectos cuánticos, y opina que en el cerebro hay una parte de computación clásica, pero que la consciencia sería un fenómeno cuántico. Aunque parezca una fumada, estamos hablando de un científico de primer nivel.
https://www.youtube.com/watch?v=3WXTX0IUaOg


La pregunta que ha surgido en los últimos tiempos es, ¿el universo en sí, es computable? Que es otra forma de preguntarse si es determinista puro. Si lo es, entonces el cerebro lo es, y al menos la posibilidad teórica de modelarlo existiría.

More research is needed.

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #657 en: Junio 19, 2022, 12:24:33 pm »
Bueno, yo vuelvo a la carga con lo mío. Estas dos entradas son el puro descojone:

Citar
'TRINCHERA CULTURAL'
Los hombres que se juegan la vida para invisibilizar a las mujeres
Hay una parodia sobre los departamentos de Estudios de Género en las redes sociales que los departamentos de Estudios de Género se esfuerzan por hacer realidad

https://www.elconfidencial.com/cultura/2022-06-19/estudio-genero-bombero-terremoto-lorca-oviedo_3444347/

Citar
'TRINCHERA CULTURAL'
Los pijospasta de barrio: la nueva 'gauche caviar'
Son los ganadores de la globalización. La izquierda 'cool' y 'trendy' que se deja ver con migrantes y precarios en los barrios en proceso de gentrificación para luego remontar a sus apartamentos de las zonas bien

https://www.elconfidencial.com/cultura/2022-06-19/pijopastas-barrio-nueva-gauche-caviar_3444067/
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 49523
  • -Recibidas: 59079
  • Mensajes: 9565
  • Nivel: 972
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #658 en: Junio 19, 2022, 15:33:08 pm »
[...] Ahora -más- en serio. Después de 24 siglos intentando definir lo que es la conciencia y sin conseguirlo, es simpático que queramos saber si una máquina tiene esa propiedad.
Las soluciones son muy fáciles y ya están contenidas en el nominalismo de Ockham de hace 8 siglos:
- O definimos conciencia como aquella propiedad que percibimos en nosotros mismo y nos hace creernos racionales; con lo cual sólo la especie humana puede ser consciente.
- O definimos conciencia como un tipo de autoconocimiento de grado superior a la mera inteligencia entendida como capacidad de resolución de problemas. En ese caso no podemos estar seguros ni siquiera nosotros de poseerla. Es la famosa alma o mente , un "no sé qué" que acompaña a todas mis percepciones (Locke), un ideal regulativo del conocimiento que no se puede conocer científicamente (Kant).
-En todo caso entramos en el terreno de lo místico de lo cual... (léase la firma de Wanderer)

La máquina no resuelve ningún problema. Lo solucionamos nosotros usando la máquina.

La máquina hace:

0 + 0 = 0
0 + 1 = 1
1 + 0 = 1
1 + 1 = 0    (... y me llevo una.)

Punto. Una operación a la vez. ¿Conciencia? La misma que una piedra.

¿Cómo funciona una neurona?

Buena pregunta... ahora que se ha encontrado actividad neuronal en el intestino.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41043
  • Mensajes: 8417
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:A brave new world: La sociedad por venir
« Respuesta #659 en: Junio 19, 2022, 19:45:42 pm »
Los dos princiaples diarios del país han aprovechado que el domingo suele ser un día tranquilo en lo que a noticias se refiere para hablar sobre LaMDA...

https://elpais.com/tecnologia/2022-06-19/lamda-la-maquina-que-parecia-un-nino-de-siete-anos-puede-un-ordenador-tener-conciencia.html


https://www.elmundo.es/opinion/editorial/2022/06/19/62ae0a44e4d4d86f3e8b4592.html


https://www.elmundo.es/papel/futuro/2022/06/18/62acba1efc6c83a3458b45e6.html







Mucho más interesante, como siempre, el vídeo que ha publicado en su canal de YouTube Carlos Santana Vega comentando la noticia desde un punto de vista técnico. Evidentemente, la respuesta a si LaMDA tiene conciencia, es: no, pero, como se ha comentado en post anteriores, donde debería centrarse todo el debate es en las consecuencias que puede tener a nivel social una tecnología como LaMDA.


Saludos.

Tags:
 


SimplePortal 2.3.3 © 2008-2010, SimplePortal