* Blog


* Últimos mensajes


* Temas mas recientes

PPCC: Pisitófilos Creditófagos. Primavera 2024 por sudden and sharp
[Hoy a las 22:05:08]


A brave new world: La sociedad por venir por sudden and sharp
[Hoy a las 20:50:47]


Coches electricos por sudden and sharp
[Hoy a las 15:05:34]


Geopolitica siglo XXI por saturno
[Ayer a las 22:33:33]


XTE-Central 2024 : El opio del pueblo por saturno
[Ayer a las 10:24:03]


Consenso de Washington, "Globalización" y Neoliberalismo por sudden and sharp
[Mayo 11, 2024, 15:28:14 pm]


STEM por Cadavre Exquis
[Mayo 11, 2024, 10:47:37 am]


COVID-19 por saturno
[Mayo 10, 2024, 02:50:32 am]


Autor Tema: AGI  (Leído 33057 veces)

0 Usuarios y 2 Visitantes están viendo este tema.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 19526
  • -Recibidas: 43726
  • Mensajes: 9019
  • Nivel: 541
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #105 en: Marzo 30, 2023, 21:07:35 pm »
Traigo a este hilo el post que publicó ayer Derby en el hilo de pp.cc. para añadir la vuelta de tuerca que se ha dado hoy sobre el tema...

https://edition.cnn.com/2023/03/29/tech/ai-letter-elon-musk-tech-leaders

Citar
Elon Musk and other tech leaders call for pause in ‘out of control’ AI race

Some of the biggest names in tech are calling for artificial intelligence labs to stop the training of the most powerful AI systems for at least six months, citing “profound risks to society and humanity.”

Elon Musk was among the dozens of tech leaders, professors and researchers who signed the letter, which was published by the Future of Life Institute, a nonprofit backed by Musk.

The letter comes just two weeks after OpenAI announced GPT-4, an even more powerful version of the technology that underpins the viral AI chatbot tool, ChatGPT. In early tests and a company demo, the technology was shown drafting lawsuits, passing standardized exams and building a working website from a hand-drawn sketch.

The letter said the pause should apply to AI systems “more powerful than GPT-4.” It also said independent experts should use the proposed pause to jointly develop and implement a set of shared protocols for AI tools that are safe “beyond a reasonable doubt.”

“Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources,” the letter said. “Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.”

If a pause is not put in place soon, the letter said governments should step in and create a moratorium.

The wave of attention around ChatGPT late last year helped renew an arms race among tech companies to develop and deploy similar AI tools in their products. OpenAI, Microsoft and Google are at the forefront of this trend, but IBM, Amazon, Baidu and Tencent are working on similar technologies. A long list of startups are also developing AI writing assistants and image generators.

Artificial intelligence experts have become increasingly concerned about AI tools’ potential for biased responses, the ability to spread misinformation and the impact on consumer privacy. These tools have also sparked questions around how AI can upend professions, enable students to cheat, and shift our relationship with technology.

The letter hints at the broader discomfort inside and outside the industry with the rapid pace of advancement in AI. Some governing agencies in China, the EU and Singapore have previously introduced early versions of AI governance frameworks.

Citar
'Pausing AI Developments Isn't Enough. We Need To Shut It All Down'
Posted by BeauHD on Wednesday March 29, 2023 @10:02PM from the time-to-get-serious dept.

Earlier today, more than 1,100 artificial intelligence experts, industry leaders and researchers signed a petition calling on AI developers to stop training models more powerful than OpenAI's ChatGPT-4 for at least six months. Among those who refrained from signing it was Eliezer Yudkowsky, a decision theorist from the U.S. and lead researcher at the Machine Intelligence Research Institute. He's been working on aligning Artificial General Intelligence since 2001 and is widely regarded as a founder of the field.

"This 6-month moratorium would be better than no moratorium," writes Yudkowsky in an opinion piece for Time Magazine. "I refrained from signing because I think the letter is understating the seriousness of the situation and asking for too little to solve it." Yudkowsky cranks up the rhetoric to 100, writing: "If somebody builds a too-powerful AI, under present conditions, I expect that every single member of the human species and all biological life on Earth dies shortly thereafter." Here's an excerpt from his piece:
Citar
The key issue is not "human-competitive" intelligence (as the open letter puts it); it's what happens after AI gets to smarter-than-human intelligence. Key thresholds there may not be obvious, we definitely can't calculate in advance what happens when, and it currently seems imaginable that a research lab would cross critical lines without noticing. [...] It's not that you can't, in principle, survive creating something much smarter than you; it's that it would require precision and preparation and new scientific insights, and probably not having AI systems composed of giant inscrutable arrays of fractional numbers. [...]

It took more than 60 years between when the notion of Artificial Intelligence was first proposed and studied, and for us to reach today's capabilities. Solving safety of superhuman intelligence -- not perfect safety, safety in the sense of "not killing literally everyone" -- could very reasonably take at least half that long. And the thing about trying this with superhuman intelligence is that if you get that wrong on the first try, you do not get to learn from your mistakes, because you are dead. Humanity does not learn from the mistake and dust itself off and try again, as in other challenges we've overcome in our history, because we are all gone.

Trying to get anything right on the first really critical try is an extraordinary ask, in science and in engineering. We are not coming in with anything like the approach that would be required to do it successfully. If we held anything in the nascent field of Artificial General Intelligence to the lesser standards of engineering rigor that apply to a bridge meant to carry a couple of thousand cars, the entire field would be shut down tomorrow. We are not prepared. We are not on course to be prepared in any reasonable time window. There is no plan. Progress in AI capabilities is running vastly, vastly ahead of progress in AI alignment or even progress in understanding what the hell is going on inside those systems. If we actually do this, we are all going to die.
You can read the full letter signed by AI leaders here.
Que digo yo que, por alguna razón, mucha gente se está poniendo muy nerviosa con el tema, y yo solo veo dos opciones:

1. Realmente están asustados con la posibilidad de que se produzca un fast takeoff de la IA que pueda suponer un peligro existencial para la humanidad
2. Hay mucho miedo a las consecuencias que la IA, incluso en el estado embrionario en el que se encuentra ahora mismo, pueda tener sobre la sociedad (e.g. incremento del desempleo a un ritmo nunca visto antes, destrucción salvaje de la competencia por disrucción tecnológica, etc.)

Allá por 2014 Brian Tomasik publicó esta entrada en su blog Reducing Suffering de la que extraigo esta gráfica sobre lo las predicciones de gente más o menos conocida sobre como sería el takeoff the la AGI en función de sus años de experiencia creando o gestionando el desarrollo de software comercial:


Esta otra gráfica sacada de este post que data de abril de 2017 de la web de una empresa de desarrollo de software llamada Altexsoft representa la predicción sobre cuando se producirá la llegada de la AGI tanto por gente de a pié como por expertos según el año en el que formulraon su predicción:


Lo que está ocurriendo estos días me ha hecho recordar las dos estupendas entradas que Tim Urban publicó a principios de 2015 en la archiconocida web Wait But Why sobre el tema; si no los leyeron entonces creo que no existe un momento más adecuado para hacerlo que ahora.
Saludos.
« última modificación: Marzo 30, 2023, 21:22:55 pm por Cadavre Exquis »

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 27116
  • -Recibidas: 29502
  • Mensajes: 3455
  • Nivel: 462
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #106 en: Marzo 30, 2023, 22:09:41 pm »
Traigo a este hilo el post que publicó ayer Derby en el hilo de pp.cc. para añadir la vuelta de tuerca que se ha dado hoy sobre el tema...

https://edition.cnn.com/2023/03/29/tech/ai-letter-elon-musk-tech-leaders

Citar
Elon Musk and other tech leaders call for pause in ‘out of control’ AI race

Some of the biggest names in tech are calling for artificial intelligence labs to stop the training of the most powerful AI systems for at least six months, citing “profound risks to society and humanity.”

Elon Musk was among the dozens of tech leaders, professors and researchers who signed the letter, which was published by the Future of Life Institute, a nonprofit backed by Musk.

The letter comes just two weeks after OpenAI announced GPT-4, an even more powerful version of the technology that underpins the viral AI chatbot tool, ChatGPT. In early tests and a company demo, the technology was shown drafting lawsuits, passing standardized exams and building a working website from a hand-drawn sketch.

The letter said the pause should apply to AI systems “more powerful than GPT-4.” It also said independent experts should use the proposed pause to jointly develop and implement a set of shared protocols for AI tools that are safe “beyond a reasonable doubt.”

“Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources,” the letter said. “Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.”

If a pause is not put in place soon, the letter said governments should step in and create a moratorium.

The wave of attention around ChatGPT late last year helped renew an arms race among tech companies to develop and deploy similar AI tools in their products. OpenAI, Microsoft and Google are at the forefront of this trend, but IBM, Amazon, Baidu and Tencent are working on similar technologies. A long list of startups are also developing AI writing assistants and image generators.

Artificial intelligence experts have become increasingly concerned about AI tools’ potential for biased responses, the ability to spread misinformation and the impact on consumer privacy. These tools have also sparked questions around how AI can upend professions, enable students to cheat, and shift our relationship with technology.

The letter hints at the broader discomfort inside and outside the industry with the rapid pace of advancement in AI. Some governing agencies in China, the EU and Singapore have previously introduced early versions of AI governance frameworks.

Citar
'Pausing AI Developments Isn't Enough. We Need To Shut It All Down'
Posted by BeauHD on Wednesday March 29, 2023 @10:02PM from the time-to-get-serious dept.

Earlier today, more than 1,100 artificial intelligence experts, industry leaders and researchers signed a petition calling on AI developers to stop training models more powerful than OpenAI's ChatGPT-4 for at least six months. Among those who refrained from signing it was Eliezer Yudkowsky, a decision theorist from the U.S. and lead researcher at the Machine Intelligence Research Institute. He's been working on aligning Artificial General Intelligence since 2001 and is widely regarded as a founder of the field.

"This 6-month moratorium would be better than no moratorium," writes Yudkowsky in an opinion piece for Time Magazine. "I refrained from signing because I think the letter is understating the seriousness of the situation and asking for too little to solve it." Yudkowsky cranks up the rhetoric to 100, writing: "If somebody builds a too-powerful AI, under present conditions, I expect that every single member of the human species and all biological life on Earth dies shortly thereafter." Here's an excerpt from his piece:
Citar
The key issue is not "human-competitive" intelligence (as the open letter puts it); it's what happens after AI gets to smarter-than-human intelligence. Key thresholds there may not be obvious, we definitely can't calculate in advance what happens when, and it currently seems imaginable that a research lab would cross critical lines without noticing. [...] It's not that you can't, in principle, survive creating something much smarter than you; it's that it would require precision and preparation and new scientific insights, and probably not having AI systems composed of giant inscrutable arrays of fractional numbers. [...]

It took more than 60 years between when the notion of Artificial Intelligence was first proposed and studied, and for us to reach today's capabilities. Solving safety of superhuman intelligence -- not perfect safety, safety in the sense of "not killing literally everyone" -- could very reasonably take at least half that long. And the thing about trying this with superhuman intelligence is that if you get that wrong on the first try, you do not get to learn from your mistakes, because you are dead. Humanity does not learn from the mistake and dust itself off and try again, as in other challenges we've overcome in our history, because we are all gone.

Trying to get anything right on the first really critical try is an extraordinary ask, in science and in engineering. We are not coming in with anything like the approach that would be required to do it successfully. If we held anything in the nascent field of Artificial General Intelligence to the lesser standards of engineering rigor that apply to a bridge meant to carry a couple of thousand cars, the entire field would be shut down tomorrow. We are not prepared. We are not on course to be prepared in any reasonable time window. There is no plan. Progress in AI capabilities is running vastly, vastly ahead of progress in AI alignment or even progress in understanding what the hell is going on inside those systems. If we actually do this, we are all going to die.
You can read the full letter signed by AI leaders here.
Que digo yo que, por alguna razón, mucha gente se está poniendo muy nerviosa con el tema, y yo solo veo dos opciones:

1. Realmente están asustados con la posibilidad de que se produzca un fast takeoff de la IA que pueda suponer un peligro existencial para la humanidad
2. Hay mucho miedo a las consecuencias que la IA, incluso en el estado embrionario en el que se encuentra ahora mismo, pueda tener sobre la sociedad (e.g. incremento del desempleo a un ritmo nunca visto antes, destrucción salvaje de la competencia por disrucción tecnológica, etc.)

Allá por 2014 Brian Tomasik publicó esta entrada en su blog Reducing Suffering de la que extraigo esta gráfica sobre lo las predicciones de gente más o menos conocida sobre como sería el takeoff the la AGI en función de sus años de experiencia creando o gestionando el desarrollo de software comercial:


Esta otra gráfica sacada de este post que data de abril de 2017 de la web de una empresa de desarrollo de software llamada Altexsoft representa la predicción sobre cuando se producirá la llegada de la AGI tanto por gente de a pié como por expertos según el año en el que formulraon su predicción:


Lo que está ocurriendo estos días me ha hecho recordar las dos estupendas entradas que Tim Urban publicó a principios de 2015 en la archiconocida web Wait But Why sobre el tema; si no los leyeron entonces creo que no existe un momento más adecuado para hacerlo que ahora.
Saludos.
Pues yo creo que se está sacando de bolos la cosa mucho, pero muchísimo.

Y sobre todo, se está operando con unas suposiciones absolutamente delirantes, que sólo se basan en Hollywood: que si las IA tendrán motivaciones propias, que si la inteligencia explotará hasta llegar al infinito y otro montón de chorradas.

La suposición más sin base de todas es la de presuponer que una IA va a crear otra IA más potente (si ni siquiera tenemos una IA general, ¿a qué cuento viene esta idiotez?) y que la inteligencia no tiene retornos decrecientes o que da superpoderes.

Bueno, y todo esto, con la premisa estúpida de que hacer un llamamiento o unas leyes van a impedir que la gente lo investigue por su cuenta, o que se utilice en general. Chorrada tras chorrada.

Pero bueno, lo pondremos junto al viaje a Marte, el coche autónomo de Nv. 5 y motor superlumínico que mucha gente da por supuesto que están a la vuelta de la esquina.

Hay un poco de noticias en el sensacionalismo.
« última modificación: Marzo 30, 2023, 22:12:46 pm por pollo »

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #107 en: Marzo 30, 2023, 23:12:33 pm »
El moloneo lelo, como yo digo, no es solo una cuestión de powerpointistas engominaos. No digo más...
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 19526
  • -Recibidas: 43726
  • Mensajes: 9019
  • Nivel: 541
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil

saturno

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 87502
  • -Recibidas: 30748
  • Mensajes: 8370
  • Nivel: 846
  • saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.
    • Ver Perfil
    • Billets philo-phynanciers crédit-consumméristes
Re:AGI
« Respuesta #109 en: Marzo 31, 2023, 20:17:04 pm »

Lo que está ocurriendo estos días me ha hecho recordar las dos estupendas entradas que Tim Urban publicó a principios de 2015 en la archiconocida web Wait But Why sobre el tema; si no los leyeron entonces creo que no existe un momento más adecuado para hacerlo que ahora.
Saludos.

Muy bueno. Pero una vez leido, me ha parecido del nivel de las amebas. Su seguna parte es un  antropomorfismo de la máquina (él el primero), pero lo peor de todo, es que reduce la vida a una causalidad final,

O sea, La finalidad de la vida es reproducirse, El instinto de supervivencia el criterio intrumental, Luego, lo lógico (eso dice, y se queda tan ancho), la IA se perpetuará a si misma. Por tanto, se comportará como una especie VIVA pero no humana y eso es terrible, porque al ser una máquina, y porque nosotros no lo somos, pues la conclusión (lógica, eh) es que vamos a morir todos como especie ! Me da la risa,

¿No quedamos en que la IA nos podría volver immortales? Y no ve la relación entre la extincción y la inmortalidad como especie,

Si esos son los debates de los pensadores de la IA, no hay ningún peligro, Ni de extincIón, ni desde luego de inmortalidad de semejantes debates.

Si la AGI (IA General) entra en proceso explosivo a la ASI (IA superlativa exponencial), entonces, la primera cosa que la ASI tendrá que haber comprendido (precisamente porque estará 2 escalones por encima de los humanos, eso dice, y se queda tan ancho)  son tres cosas;

-- Primero, que la vida es lo mismo que la muerte, no es un "factor", ni un impulso, sino una voluntad, que puede ser tuya, o no ser la tuya

-- Segundo, que los seres vivos se mueren no porque les falten "nanobots", sino porque deciden que ha llegado su hora de morirse,  No sé si lo habréis experimentado, pero alguien que sobrevive a un accidente, es cuando decide no morirse, Empezando porque sabes si tienes una posibilidad (si no la tienes, -- accidente, enfermedad-- lo sabes también, pero la decisIón la sigues tomando tú), Pones en balanza tu vida y tu muerte, lo que te dice tu cuerpo y lo que comprendes de tu situación, y decides "No es mi hora", sólo entonces haces o no el gesto que te salvará físicamente, o adoptas la actitud ética que te mantendrá libre y conforme a lo que decides. Luego te desvaneces (físicamente) o bien te pones a defender lo que eres. Cuando despiertas o sales del peligro, y puesto que estás vivo (normal) te dices, "Mierda, otra vez a empezar, pero soy lo que he vivido y por eso viviré". Etc, Y así, todos los días de tu vida. Todos los días en que decides si  mueres o si vives, No creo que  haya que pasar por ninguna experienca para saber que la decision es la misma, Es la misma en caso de accidente, o de elección ética, o simplemente cuando dices a otra persona quiero vivir contigo (= al cabo,  significa literalmente eso mismo; quiero morir contigo),

Las ceremonias funerarias son exactamente eso, honrar al que ha decidido irse. Los militares en el frente (o de vuelta de ejercicio, llevan chalecoos que les dicen si han muerto) te lo dicen con una naturalidad muy normal "no era mi hora". Deciden exponer su vida. Militares, bomberos, policias. Enfermeros. Saben por qué  viven porque saben por qué deciden morir, 

-- y tercera cosa (que es la unión de las 2 anteriores) que la ASI sabrá, para poder expandirse explosivamente que la forma de expandirse es precisamente decidir del término de su tarea (tiempo o espacio), lo que en filosofía llaman "su finitud".

Dicho de otro modo, lo que distinguirä a una AGI de una ASI, es que la ASI será capaz de poner  un término a su tarea, Su tarea será finita, O no será ninguna tarea,

Por la misma razón que un artista sabe que ha creado una obra CUANDO LA HA TERMINADO,
Es la finitud, la decisión de la muerte, lo que da la medida de la obra, de tu vida,

Si una AGI no se impone (a sí misma) su finitud, entonces seguirá siendo una AGI servil, y dependerá indefinidamente de un profesor que le proporcione los inputs y las respuestas Eso está bien / Eso está mal, Mientras no tomas conciencia de la finitud, literalmente, no puedes crear NADA,

La ASI surgirá de la finitud que una AGI se imponga a si misma, Y suponiendo que la alcance, la máquina se parará y dejará pura y simplemente de funcionar, Se desenchufará a sí misma de inmediato, Y será entonces cuando los humanos tendremos una obra completa, Una obra que sea la obra de una ASI no servirá para NADA, Habrá creado una obra en el sentido cultural, La máquina habrá creado una máquina que no sirve para nada, Por tanto, y eso es lo lógico para una maquina, la ASI se detendrá, y será super interesante preguntarle por qué   (por su lado la AGI no se para nunca, no sabe lo que es la finitud, sólo sirve a su amo mientras éste no la desenchufe)..

Es significativo que para nombrar al estado superior de la AGI (general intelligence) no hayan entontrado otro término que el de ASI (super-interligence)), El mismo autor avisa que no śaben qué es la ASI y de ahi el debate "filosofico": si la ASI será "buena" de explicärselo a los humanos (que no entenderán, por haber sido superados) o si la ASI será "mala" como para acabar con ellos como especie,

La diferencia que hace entre la AGI y la ASI es exactamente la misma que entre un asalariado y un profesional indepenediente. O lo hace aposta para vender su PDF, o le pagan para vender esa diferencia, Es la misma diferencia entre servir y ser hombre libre (siempre que no te vendas voluntariamente),

Creo que de lo que habla en realidad, es de combinación de la Hubris y de la AGI,
Pero la hubris es humana, Hasta sus ejemplos con la Araña superlativa son ridículos; una araña no tiene ninguna hubris.

___

En cuanto a todas las AGI que vayan en plan "hubría" como se imagina el del artículo (las que llama ASI, mejor llamarlas AHI artificial hubris intelligences) pues se seguirán pudiendo desenchufar sin problema,

Si a una AGI le da aparentemente un acceso de hubrÏa, no hay que temer nada: es mera Hubris humana y su nivel de inteligencia humana es inferior a la cualquier humano vivo, Y sabiendo LOS HUMANOS eso con tal certeza, ENTONCES habrá que ir a por el responsable de ese desmadre de hubris, en ningún caso contra la máquina,

Es como el tipo que se salta un semáforo y manda al infierno a otro conductor,
Si el tarado sobrevive (si decidió morir matando y le salió mal), vas a por él, no a por el coche


(Perdón por el sermón. Tengo la sensación de haber perdido la tarde, Pero vamos, el artIculo tiene la ventaja de obligarte a bajar a lo esencial, cosa que el artículista no hace. La prueba este post donde me sacudo la arena que me ha mandado a la cara, Fijate que el tío te propone comprarle el PDF de ese artículo, Eso si que es pura AGI, con aspiraciones a HubrIA, Pero para hablar de la ASI, macho, piensa en tu propia finitud.)

____

Edit: "se seguirän pudiendo desenchufar"  y no ·podiendo. Vamos creo.. Y no sé por qué,
« última modificación: Abril 02, 2023, 00:45:39 am por saturno »
Alegraos, la transición estructural, por divertida, es revolucionaria.

PPCC v/eshttp://ppcc-es.blogspot

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 19526
  • -Recibidas: 43726
  • Mensajes: 9019
  • Nivel: 541
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil

puede ser

  • Estructuralista
  • ****
  • Gracias
  • -Dadas: 20372
  • -Recibidas: 10532
  • Mensajes: 1509
  • Nivel: 156
  • puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.puede ser Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #111 en: Abril 02, 2023, 00:05:28 am »
https://www.lavozdegalicia.es/noticia/sociedad/2023/03/31/italia-bloquea-uso-chatgpt/00031680257176888719279.htm
Citar
Italia bloquea el uso de ChatGPT
Italia dispuso este viernes el bloqueo «con efecto inmediato» de la tecnología de Inteligencia Artificial ChatGPT, de la tecnológica estadounidense OpenAI, acusándola de no respetar la ley de protección de datos de los consumidores.

El garante italiano para la Protección de Datos Personales aseguró en un comunicado que ha abierto una investigación y que, entretanto, el bloqueo se mantendrá hasta que ChatGPT «no respete la disciplina de la privacidad».

El popular ChatGPT ha sido desarrollado por la compañía OpenIA de Estados Unidos, donde varias organizaciones han pedido también su supensión por recelar de estos experimentos con Inteligencia Artificial.

saturno

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 87502
  • -Recibidas: 30748
  • Mensajes: 8370
  • Nivel: 846
  • saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.saturno Sus opiniones inspiran a los demás.
    • Ver Perfil
    • Billets philo-phynanciers crédit-consumméristes
Re:AGI
« Respuesta #112 en: Abril 03, 2023, 14:55:47 pm »
XGracias WolfgangK

https://twitter.com/mrgreen/status/1625521497065369606

Citar
Ready to have your mind blown?

You can now flawlessly translate dialogue on any video.

This AI tool will seamlessly translate and synchronize your videos into any language.

Think videos ads or any video content!

Now, you have a global reach.
4:45 PM · Feb 14, 2023
·
2.5M Views



Alegraos, la transición estructural, por divertida, es revolucionaria.

PPCC v/eshttp://ppcc-es.blogspot

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 19526
  • -Recibidas: 43726
  • Mensajes: 9019
  • Nivel: 541
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 19526
  • -Recibidas: 43726
  • Mensajes: 9019
  • Nivel: 541
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #114 en: Abril 04, 2023, 07:33:29 am »
Un equipo de investigadores de Microsoft ha publicado un paper en el que estudian la posibilidad de utiliza un LLM para conectar diversos modelos de IA desarrollados por la comunidad de HuggingFace para resolver todo tipo de tareas de IA:

HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace











El modelo HuggingGPT está disponible en GitHub en un repositorio de Microsoft al que, en un alarde de imaginación, han llamado JARVIS:


Saludos.

P.D. Tienen el PDF completo del paper aquí.

Benzino Napaloni

  • Estructuralista
  • ****
  • Gracias
  • -Dadas: 875
  • -Recibidas: 16296
  • Mensajes: 1937
  • Nivel: 184
  • Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #115 en: Abril 04, 2023, 09:41:12 am »
YouTuber enseña a Inteligencia Artificial de ChatGPT cómo piratear claves de Windows

Citar
La caja de pandora se ha abierto aunque sea primero en Windows 95

Y lo que te rondaré morena...

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 27116
  • -Recibidas: 29502
  • Mensajes: 3455
  • Nivel: 462
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #116 en: Abril 04, 2023, 09:58:56 am »
XGracias WolfgangK

https://twitter.com/mrgreen/status/1625521497065369606

Citar
Ready to have your mind blown?

You can now flawlessly translate dialogue on any video.

This AI tool will seamlessly translate and synchronize your videos into any language.

Think videos ads or any video content!

Now, you have a global reach.
4:45 PM · Feb 14, 2023
·
2.5M Views

Tanta sofisticación y luego resulta que el doblaje al español suena con acento latino. Sorry, no sirve.  :biggrin:.

A mí personalmente no me gusta que se haga un reemplazo de la actuación original, porque eso tiene unas implicaciones que pueden cargarse los matices de la actuación o del mensaje traducido, además de que los énfasis, el tono y otras características son muy dependientes de la cultura y una traducción directa quedará rara.

La coñita que puse antes del acento latino acabo de caer en la cuenta de que es un ejemplo de lo que hablo.

Con que haga unos subtítulos decentes (que es la parte que es realmente útil) me parece más que suficiente.
« última modificación: Abril 04, 2023, 10:04:11 am por pollo »

sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 49970
  • -Recibidas: 59623
  • Mensajes: 9753
  • Nivel: 980
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #117 en: Abril 04, 2023, 10:26:56 am »
¿Habéis oido hablar alguna vez del español neutro? Que es lo habitual en doblajes y demás.

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #118 en: Abril 04, 2023, 11:47:25 am »
¿Habéis oido hablar alguna vez del español neutro? Que es lo habitual en doblajes y demás.

Prefiero el doblaje latino al español neutro (aunque aún mejor el doblaje al español-castellano).

También yo doblaría a la mayoría de los actores patrios, del español al español, pero con buena dicción (supongo que habrán observado que en  una película de Hollywood con doblaje castellano suena mucho mejor nuestro idioma que en una película española original -.que hay que tener valor para ver, en cualquier caso.-).

Y otra cosa, tanto rollo con la IA, y la cordura artificial, ¿pá cuando? (me autorrespondo: ni está ni se la espera).
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 49970
  • -Recibidas: 59623
  • Mensajes: 9753
  • Nivel: 980
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #119 en: Abril 04, 2023, 11:52:49 am »
¿Habéis oido hablar alguna vez del español neutro? Que es lo habitual en doblajes y demás.

Prefiero el doblaje latino al español neutro (aunque aún mejor el doblaje al español-castellano).

También yo doblaría a la mayoría de los actores patrios, del español al español, pero con buena dicción (supongo que habrán observado que en  una película de Hollywood con doblaje castellano suena mucho mejor nuestro idioma que en una película española original -.que hay que tener valor para ver, en cualquier caso.-).

Y otra cosa, tanto rollo con la IA, y la cordura artificial, ¿pá cuando? (me autorrespondo: ni está ni se la espera).

Dos matices:

  • No se traduce/subtitula para nosotros, sino para todos los hispanohablantes... (y somos minoría.)
  • La IA nos lo hará pronto "a demanda"... i.e.: español-wanderiano.

Tags:
 


SimplePortal 2.3.3 © 2008-2010, SimplePortal