* Blog


* Últimos mensajes


* Temas mas recientes


Autor Tema: AGI  (Leído 28899 veces)

0 Usuarios y 1 Visitante están viendo este tema.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41043
  • Mensajes: 8417
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
AGI
« en: Febrero 27, 2023, 00:22:50 am »
Aunque llevaba un tiempo pensando en ello, aprovecho la publicación hace un par de días de un post sobre AGI (Artificial General Intelligence) por parte de Sam Altman (CEO de OpenAI) para crear un nuevo hilo al que ir trayendo noticias relacionadas con los avances en IA.

He estado dudando entre utilizar AI o AGI como título para el hilo. Al final, me he decantado por este último porque, aunque todavía no seamos totalmente conscientes de ello, la IA ya hace unos cuantos años que está presente en nuestras vidas de una forma más o menos evidente y creo que el debate debe centrarse no alrededor de la AI (también llamada Narrow AI) sino de la AGI por el impacto que tendra en la sociedad y, por tanto, en nuestras vidas.

Es muy probable que este hilo se solape con otros (e.g. STEM, El fin del trabajo, A brave new world: La sociedad por venir y, por supuesto, los de "PP-CC-Pisitófilos Creditofagos"), pero creo que la cantidad de noticias que van a producirse en un futuro cercano alrededor de la AGI precisan de un hilo específico para debatir sobre ello.

Saludos.

P.D.

Soy consciente de lo polémico del tema e incluso del problema que supone llegar a un acuerdo sobre lo que significa AGI; para intentar centrar el debate podemos partir de la definición que propone la propia OpenAI en su página "About" a día 26 de febrero de 2023:

Citar
OpenAI’s mission is to ensure that artificial general intelligence
(AGI)—by which we mean highly autonomous systems that
outperform humans at most economically valuable work
—benefits
all of humanity.
« última modificación: Febrero 27, 2023, 00:33:19 am por Cadavre Exquis »

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41043
  • Mensajes: 8417
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #1 en: Febrero 27, 2023, 00:23:43 am »
Post publicado el 24 de febrero de 2023 por Sam Altman, CEO de OpenAI, en el blog de la compañia:

Citar
Planning for AGI and beyond

Sam Altman, February 24, 2023


Our mission is to ensure that artificial general intelligence—AI systems that are generally smarter than humans—benefits all of humanity.

If AGI is successfully created, this technology could help us elevate humanity by increasing abundance, turbocharging the global economy, and aiding in the discovery of new scientific knowledge that changes the limits of possibility.

AGI has the potential to give everyone incredible new capabilities; we can imagine a world where all of us have access to help with almost any cognitive task, providing a great force multiplier for human ingenuity and creativity.

On the other hand, AGI would also come with serious risk of misuse, drastic accidents, and societal disruption. Because the upside of AGI is so great, we do not believe it is possible or desirable for society to stop its development forever; instead, society and the developers of AGI have to figure out how to get it right.[1]

Although we cannot predict exactly what will happen, and of course our current progress could hit a wall, we can articulate the principles we care about most:
  • We want AGI to empower humanity to maximally flourish in the universe. We don’t expect the future to be an unqualified utopia, but we want to maximize the good and minimize the bad, and for AGI to be an amplifier of humanity.
  • We want the benefits of, access to, and governance of AGI to be widely and fairly shared.
  • We want to successfully navigate massive risks. In confronting these risks, we acknowledge that what seems right in theory often plays out more strangely than expected in practice. We believe we have to continuously learn and adapt by deploying less powerful versions of the technology in order to minimize “one shot to get it right” scenarios.

The short term

There are several things we think are important to do now to prepare for AGI.

First, as we create successively more powerful systems, we want to deploy them and gain experience with operating them in the real world. We believe this is the best way to carefully steward AGI into existence—a gradual transition to a world with AGI is better than a sudden one. We expect powerful AI to make the rate of progress in the world much faster, and we think it’s better to adjust to this incrementally.

A gradual transition gives people, policymakers, and institutions time to understand what’s happening, personally experience the benefits and downsides of these systems, adapt our economy, and to put regulation in place. It also allows for society and AI to co-evolve, and for people collectively to figure out what they want while the stakes are relatively low.

We currently believe the best way to successfully navigate AI deployment challenges is with a tight feedback loop of rapid learning and careful iteration. Society will face major questions about what AI systems are allowed to do, how to combat bias, how to deal with job displacement, and more. The optimal decisions will depend on the path the technology takes, and like any new field, most expert predictions have been wrong so far. This makes planning in a vacuum very difficult.[2]

Generally speaking, we think more usage of AI in the world will lead to good, and want to promote it (by putting models in our API, open-sourcing them, etc.). We believe that democratized access will also lead to more and better research, decentralized power, more benefits, and a broader set of people contributing new ideas.

As our systems get closer to AGI, we are becoming increasingly cautious with the creation and deployment of our models. Our decisions will require much more caution than society usually applies to new technologies, and more caution than many users would like. Some people in the AI field think the risks of AGI (and successor systems) are fictitious; we would be delighted if they turn out to be right, but we are going to operate as if these risks are existential.

At some point, the balance between the upsides and downsides of deployments (such as empowering malicious actors, creating social and economic disruptions, and accelerating an unsafe race) could shift, in which case we would significantly change our plans around continuous deployment.

Second, we are working towards creating increasingly aligned and steerable models. Our shift from models like the first version of GPT-3 to InstructGPT and ChatGPT is an early example of this.

In particular, we think it’s important that society agree on extremely wide bounds of how AI can be used, but that within those bounds, individual users have a lot of discretion. Our eventual hope is that the institutions of the world agree on what these wide bounds should be; in the shorter term we plan to run experiments for external input. The institutions of the world will need to be strengthened with additional capabilities and experience to be prepared for complex decisions about AGI.

The “default setting” of our products will likely be quite constrained, but we plan to make it easy for users to change the behavior of the AI they’re using. We believe in empowering individuals to make their own decisions and the inherent power of diversity of ideas.

We will need to develop new alignment techniques as our models become more powerful (and tests to understand when our current techniques are failing). Our plan in the shorter term is to use AI to help humans evaluate the outputs of more complex models and monitor complex systems, and in the longer term to use AI to help us come up with new ideas for better alignment techniques.

Importantly, we think we often have to make progress on AI safety and capabilities together. It’s a false dichotomy to talk about them separately; they are correlated in many ways. Our best safety work has come from working with our most capable models. That said, it’s important that the ratio of safety progress to capability progress increases.

Third, we hope for a global conversation about three key questions: how to govern these systems, how to fairly distribute the benefits they generate, and how to fairly share access.

In addition to these three areas, we have attempted to set up our structure in a way that aligns our incentives with a good outcome. We have a clause in our Charter about assisting other organizations to advance safety instead of racing with them in late-stage AGI development. We have a cap on the returns our shareholders can earn so that we aren’t incentivized to attempt to capture value without bound and risk deploying something potentially catastrophically dangerous (and of course as a way to share the benefits with society). We have a nonprofit that governs us and lets us operate for the good of humanity (and can override any for-profit interests), including letting us do things like cancel our equity obligations to shareholders if needed for safety and sponsor the world’s most comprehensive UBI experiment.

We think it’s important that efforts like ours submit to independent audits before releasing new systems; we will talk about this in more detail later this year. At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models. We think public standards about when an AGI effort should stop a training run, decide a model is safe to release, or pull a model from production use are important. Finally, we think it’s important that major world governments have insight about training runs above a certain scale.

The long term

We believe that future of humanity should be determined by humanity, and that it’s important to share information about progress with the public. There should be great scrutiny of all efforts attempting to build AGI and public consultation for major decisions.

The first AGI will be just a point along the continuum of intelligence. We think it’s likely that progress will continue from there, possibly sustaining the rate of progress we’ve seen over the past decade for a long period of time. If this is true, the world could become extremely different from how it is today, and the risks could be extraordinary. A misaligned superintelligent AGI could cause grievous harm to the world; an autocratic regime with a decisive superintelligence lead could do that too.

AI that can accelerate science is a special case worth thinking about, and perhaps more impactful than everything else. It’s possible that AGI capable enough to accelerate its own progress could cause major changes to happen surprisingly quickly (and even if the transition starts slowly, we expect it to happen pretty quickly in the final stages). We think a slower takeoff is easier to make safe, and coordination among AGI efforts to slow down at critical junctures will likely be important (even in a world where we don’t need to do this to solve technical alignment problems, slowing down may be important to give society enough time to adapt).

Successfully transitioning to a world with superintelligence is perhaps the most important—and hopeful, and scary—project in human history. Success is far from guaranteed, and the stakes (boundless downside and boundless upside) will hopefully unite all of us.

We can imagine a world in which humanity flourishes to a degree that is probably impossible for any of us to fully visualize yet. We hope to contribute to the world an AGI aligned with such flourishing.



Footnotes1.We seem to have been given lots of gifts relative to what we expected earlier: for example, it seems like creating AGI will require huge amounts of compute and thus the world will know who is working on it, it seems like the original conception of hyper-evolved RL agents competing with each other and evolving intelligence in a way we can’t really observe is less likely than it originally seemed, almost no one predicted we’d make this much progress on pre-trained language models that can learn from the collective preferences and output of humanity, etc.

AGI could happen soon or far in the future; the takeoff speed from the initial AGI to more powerful successor systems could be slow or fast. Many of us think the safest quadrant in this two-by-two matrix is short timelines and slow takeoff speeds; shorter timelines seem more amenable to coordination and more likely to lead to a slower takeoff due to less of a compute overhang, and a slower takeoff gives us more time to figure out empirically how to solve the safety problem and how to adapt.
2.For example, when we first started OpenAI, we didn’t expect scaling to be as important as it has turned out to be. When we realized it was going to be critical, we also realized our original structure wasn’t going to work—we simply wouldn’t be able to raise enough money to accomplish our mission as a nonprofit—and so we came up with a new structure.

As another example, we now believe we were wrong in our original thinking about openness, and have pivoted from thinking we should release everything (though we open source some things, and expect to open source more exciting things in the future!) to thinking that we should figure out how to safely share access to and benefits of the systems. We still believe the benefits of society understanding what is happening are huge and that enabling such understanding is the best way to make sure that what gets built is what society collectively wants (obviously there’s a lot of nuance and conflict here).
AuthorsSam Altman
AcknowledgmentsThanks to Brian Chesky, Paul Christiano, Jack Clark, Holden Karnofsky, Tasha McCauley, Nate Soares, Kevin Scott, Brad Smith, Helen Toner, Allan Dafoe, and the OpenAI team for reviewing drafts of this.
Filed UnderSafety & Alignment
Saludos.
« última modificación: Febrero 27, 2023, 07:00:11 am por Cadavre Exquis »

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41043
  • Mensajes: 8417
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #2 en: Febrero 27, 2023, 00:24:48 am »
Sin duda, la parte más compleja de la AGI es el tema del alineamiento o alineación de la Inteligencia Artificial.

Nick Bostrom escribió en 2014 un libro dedicado precisamente a este problema. Está publicado tanto en inglés como en castellano.



Saludos.
« última modificación: Febrero 27, 2023, 07:01:16 am por Cadavre Exquis »

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41043
  • Mensajes: 8417
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #3 en: Febrero 27, 2023, 00:26:04 am »
Curiosamente, Pablo Gil dedicó su vídeo de este viernes a la IA y, aunque todavía se le ve un poco despistado al respecto, sí que intuye que va a suponer una revolución tanto o más grande que lo que fue la Revolución Industrial o la el acceso generalizado a Internet.






















Saludos.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41043
  • Mensajes: 8417
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #4 en: Febrero 27, 2023, 00:51:47 am »
Citar
Microsoft Tests ChatGPT's Ability to Control Robots
Posted by EditorDavid on Sunday February 26, 2023 @07:34AM from the AI-robot dept.

"We extended the capabilities of ChatGPT to robotics," brags a blog post from Microsoft's Autonomous Systems and Robotics research group, "and controlled multiple platforms such as robot arms, drones, and home assistant robots intuitively with language."

They're exploring how to use ChatGPT to "make natural human-robot interactions possible... to see if ChatGPT can think beyond text, and reason about the physical world to help with robotics tasks."
Citar
We want to help people interact with robots more easily, without needing to learn complex programming languages or details about robotic systems. The key challenge here is teaching ChatGPT how to solve problems considering the laws of physics, the context of the operating environment, and how the robot's physical actions can change the state of the world.

It turns out that ChatGPT can do a lot by itself, but it still needs some help. Our technical paper describes a series of design principles that can be used to guide language models towards solving robotics tasks. These include, and are not limited to, special prompting structures, high-level APIs, and human feedback via text.... In our work we show multiple examples of ChatGPT solving robotics puzzles, along with complex robot deployments in the manipulation, aerial, and navigation domains....

We gave ChatGPT access to functions that control a real drone, and it proved to be an extremely intuitive language-based interface between the non-technical user and the robot. ChatGPT asked clarification questions when the user's instructions were ambiguous, and wrote complex code structures for the drone such as a zig-zag pattern to visually inspect shelves. It even figured out how to take a selfie! We also used ChatGPT in a simulated industrial inspection scenario with the Microsoft AirSim simulator. The model was able to effectively parse the user's high-level intent and geometrical cues to control the drone accurately....

We are excited to release these technologies with the aim of bringing robotics to the reach of a wider audience. We believe that language-based robotics control will be fundamental to bring robotics out of science labs, and into the hands of everyday users.

That said, we do emphasize that the outputs from ChatGPT are not meant to be deployed directly on robots without careful analysis. We encourage users to harness the power of simulations in order to evaluate these algorithms before potential real life deployments, and to always take the necessary safety precautions. Our work represents only a small fraction of what is possible within the intersection of large language models operating in the robotics space, and we hope to inspire much of the work to come.tics to the reach of a wider audience. We believe that language-based robotics control will be fundamental to bring robotics out of science labs, and into the hands of everyday users.
ZDNet points out that Google Research and Alphabet's Everyday Robots "have also worked on similar robotics challenges using a large language models called PaLM, or Pathways Language Model, which helped a robot to process open-ended prompts and respond in reasonable ways."
Saludos.

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 26727
  • -Recibidas: 29331
  • Mensajes: 3438
  • Nivel: 460
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #5 en: Febrero 27, 2023, 11:15:10 am »
Personalmente, no creo que sea una preocupación a corto plazo.

La AGI no está a la vuelta de la esquina, como tampoco lo está la conducción autónoma (y de momento se va cumpliendo lo que decimos los escépticos al respecto), porque hay un problema cualitativo y no cuantitativo: no se sabe cómo se puede hacer algo semejante.

Como en la conducción autónoma, que en mi opinión requiere AGI o algo muy cercano (porque no puedes prever infinitos contratiempos que para resolverse necesitan sentido común y experiencia en el mundo) el debate ya nace viciado porque se parte de varias premisas falsas, basadas únicamente en historias de ciencia ficción, es decir (son las que se me ocurren, podría haber más)
  • Las máquinas son perfectas por definición (como un programa puede hacer sumas muy rápido y sin errores lo extrapolamos a conducir coches)
  • Los humanos somos una puta mierda en lo que hacemos (comparar tasas de accidentes sin datos para ello)
  • Las máquinas tienen intencionalidad y nos van a atacar en cuanto puedan (mucho más miedo da que se programen intencionadamente para hacer daño, lo que ocurrirá en cuanto se tenga la oportunidad)
  • La alta inteligencia da ventajas infalibles (cuando tenemos numerosos ejemplos alrededor de que no es así)
  • La inteligencia no tiene retornos decrecientes en su aplicabilidad y resultados
  • La inteligencia es capaz de violar las leyes de la física y hacer milagros
  • La inteligencia es independiente del entorno, experiencia y circunstancias de un individuo
  • Se puede abarcar la experiencia de una mente sólo entrenando a base de texto. Cualquiera que haya hecho algo medianamente complicado en su vida sabe que el conocimiento enciclopédico sólo es una pequeña parte.

Por otro lado, lo que diga una parte interesadísima y encima de la capa no técnica (un CEO) no es que me lo tome con un grano de sal, sino con varios sacos.

¿Qué va a decir el presidente de una empresa que está en el candelero ahora mismo por un producto que vive básicamente del boca a boca de usuarios que no quieren comprender sus limitaciones?

Antes de nada, habrá que ver cómo escalan los siguientes modelos "grandes" antes de ponerse a predecir que viviremos en Los Jetsons. La experiencia pasada dice que se tiende a sobreestimar enormemente la tendencia en este campo. Todavía sigo esperando a que suelten de verdad un coche autónomo capaz 100% (nivel 5 sin apoyo externo de ningún tipo). Hace diez años faltaban dos para conseguirlo. Sigo esperando.
« última modificación: Febrero 27, 2023, 11:20:44 am por pollo »

Saturio

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 852
  • -Recibidas: 26229
  • Mensajes: 3378
  • Nivel: 651
  • Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #6 en: Febrero 27, 2023, 13:20:38 pm »
Personalmente, no creo que sea una preocupación a corto plazo.

La AGI no está a la vuelta de la esquina, como tampoco lo está la conducción autónoma (y de momento se va cumpliendo lo que decimos los escépticos al respecto), porque hay un problema cualitativo y no cuantitativo: no se sabe cómo se puede hacer algo semejante.

Como en la conducción autónoma, que en mi opinión requiere AGI o algo muy cercano (porque no puedes prever infinitos contratiempos que para resolverse necesitan sentido común y experiencia en el mundo) el debate ya nace viciado porque se parte de varias premisas falsas, basadas únicamente en historias de ciencia ficción, es decir (son las que se me ocurren, podría haber más)
  • Las máquinas son perfectas por definición (como un programa puede hacer sumas muy rápido y sin errores lo extrapolamos a conducir coches)
  • Los humanos somos una puta mierda en lo que hacemos (comparar tasas de accidentes sin datos para ello)
  • Las máquinas tienen intencionalidad y nos van a atacar en cuanto puedan (mucho más miedo da que se programen intencionadamente para hacer daño, lo que ocurrirá en cuanto se tenga la oportunidad)
  • La alta inteligencia da ventajas infalibles (cuando tenemos numerosos ejemplos alrededor de que no es así)
  • La inteligencia no tiene retornos decrecientes en su aplicabilidad y resultados
  • La inteligencia es capaz de violar las leyes de la física y hacer milagros
  • La inteligencia es independiente del entorno, experiencia y circunstancias de un individuo
  • Se puede abarcar la experiencia de una mente sólo entrenando a base de texto. Cualquiera que haya hecho algo medianamente complicado en su vida sabe que el conocimiento enciclopédico sólo es una pequeña parte.

Por otro lado, lo que diga una parte interesadísima y encima de la capa no técnica (un CEO) no es que me lo tome con un grano de sal, sino con varios sacos.

¿Qué va a decir el presidente de una empresa que está en el candelero ahora mismo por un producto que vive básicamente del boca a boca de usuarios que no quieren comprender sus limitaciones?

Antes de nada, habrá que ver cómo escalan los siguientes modelos "grandes" antes de ponerse a predecir que viviremos en Los Jetsons. La experiencia pasada dice que se tiende a sobreestimar enormemente la tendencia en este campo. Todavía sigo esperando a que suelten de verdad un coche autónomo capaz 100% (nivel 5 sin apoyo externo de ningún tipo). Hace diez años faltaban dos para conseguirlo. Sigo esperando.

El coche autónomo es algo medio imposible. Quizás tenga algún día solución pero es posible que las líneas actuales de desarrollo se hayan topado con un límite.
Veía un vídeo de cómo un Tesla se empanaba más que un octogenario al llegar a una minúscula rotondita holandesa en la coincidían varios pasos de cebra y carriles bici. El tráfico era ridículamente lento y escaso. Un coche se acercaba por un lado, una bici iba por su carril, unos escasos peatones iban por las aceras...pero el coche decía pararse...aparentemente sin saber que hacer.
Entonces te das cuenta de que ese problema tan simple no se puede resolver simplemente detectando objetos y trayectorias. Porque un humano no lo hace así. Un humano tiene en cuenta si el coche que viene por la otra vía es un Seat León con las lunas tintadas, o si el peatón parece tener 5 años o 40, si lleva bolsas de la compra...Hasta las expresiones faciales de la gente o incluso se puede producir comunicación gestual entre los conductores (a veces una sonrisa o un guiño).

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 26727
  • -Recibidas: 29331
  • Mensajes: 3438
  • Nivel: 460
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #7 en: Febrero 27, 2023, 13:43:44 pm »
Personalmente, no creo que sea una preocupación a corto plazo.

La AGI no está a la vuelta de la esquina, como tampoco lo está la conducción autónoma (y de momento se va cumpliendo lo que decimos los escépticos al respecto), porque hay un problema cualitativo y no cuantitativo: no se sabe cómo se puede hacer algo semejante.

Como en la conducción autónoma, que en mi opinión requiere AGI o algo muy cercano (porque no puedes prever infinitos contratiempos que para resolverse necesitan sentido común y experiencia en el mundo) el debate ya nace viciado porque se parte de varias premisas falsas, basadas únicamente en historias de ciencia ficción, es decir (son las que se me ocurren, podría haber más)
  • Las máquinas son perfectas por definición (como un programa puede hacer sumas muy rápido y sin errores lo extrapolamos a conducir coches)
  • Los humanos somos una puta mierda en lo que hacemos (comparar tasas de accidentes sin datos para ello)
  • Las máquinas tienen intencionalidad y nos van a atacar en cuanto puedan (mucho más miedo da que se programen intencionadamente para hacer daño, lo que ocurrirá en cuanto se tenga la oportunidad)
  • La alta inteligencia da ventajas infalibles (cuando tenemos numerosos ejemplos alrededor de que no es así)
  • La inteligencia no tiene retornos decrecientes en su aplicabilidad y resultados
  • La inteligencia es capaz de violar las leyes de la física y hacer milagros
  • La inteligencia es independiente del entorno, experiencia y circunstancias de un individuo
  • Se puede abarcar la experiencia de una mente sólo entrenando a base de texto. Cualquiera que haya hecho algo medianamente complicado en su vida sabe que el conocimiento enciclopédico sólo es una pequeña parte.

Por otro lado, lo que diga una parte interesadísima y encima de la capa no técnica (un CEO) no es que me lo tome con un grano de sal, sino con varios sacos.

¿Qué va a decir el presidente de una empresa que está en el candelero ahora mismo por un producto que vive básicamente del boca a boca de usuarios que no quieren comprender sus limitaciones?

Antes de nada, habrá que ver cómo escalan los siguientes modelos "grandes" antes de ponerse a predecir que viviremos en Los Jetsons. La experiencia pasada dice que se tiende a sobreestimar enormemente la tendencia en este campo. Todavía sigo esperando a que suelten de verdad un coche autónomo capaz 100% (nivel 5 sin apoyo externo de ningún tipo). Hace diez años faltaban dos para conseguirlo. Sigo esperando.

El coche autónomo es algo medio imposible. Quizás tenga algún día solución pero es posible que las líneas actuales de desarrollo se hayan topado con un límite.
Veía un vídeo de cómo un Tesla se empanaba más que un octogenario al llegar a una minúscula rotondita holandesa en la coincidían varios pasos de cebra y carriles bici. El tráfico era ridículamente lento y escaso. Un coche se acercaba por un lado, una bici iba por su carril, unos escasos peatones iban por las aceras...pero el coche decía pararse...aparentemente sin saber que hacer.
Entonces te das cuenta de que ese problema tan simple no se puede resolver simplemente detectando objetos y trayectorias. Porque un humano no lo hace así. Un humano tiene en cuenta si el coche que viene por la otra vía es un Seat León con las lunas tintadas, o si el peatón parece tener 5 años o 40, si lleva bolsas de la compra...Hasta las expresiones faciales de la gente o incluso se puede producir comunicación gestual entre los conductores (a veces una sonrisa o un guiño).
Básicamente lo que llamamos "sentido común".

Experiencia cotidiana aprendida desde bebés, que por ser cotidiana subestimamos enormemente. Pero es la que nos hace no tirarnos por las ventanas, saludar al ver a conocidos, saber predecir aproximadamente lo que va a hacer un objeto arbitrario por la calle o no girar contra un camión de varias toneladas en marcha.

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #8 en: Febrero 27, 2023, 14:00:38 pm »
Personalmente, no creo que sea una preocupación a corto plazo.

La AGI no está a la vuelta de la esquina, como tampoco lo está la conducción autónoma (y de momento se va cumpliendo lo que decimos los escépticos al respecto), porque hay un problema cualitativo y no cuantitativo: no se sabe cómo se puede hacer algo semejante.

Como en la conducción autónoma, que en mi opinión requiere AGI o algo muy cercano (porque no puedes prever infinitos contratiempos que para resolverse necesitan sentido común y experiencia en el mundo) el debate ya nace viciado porque se parte de varias premisas falsas, basadas únicamente en historias de ciencia ficción, es decir (son las que se me ocurren, podría haber más)
  • Las máquinas son perfectas por definición (como un programa puede hacer sumas muy rápido y sin errores lo extrapolamos a conducir coches)
  • Los humanos somos una puta mierda en lo que hacemos (comparar tasas de accidentes sin datos para ello)
  • Las máquinas tienen intencionalidad y nos van a atacar en cuanto puedan (mucho más miedo da que se programen intencionadamente para hacer daño, lo que ocurrirá en cuanto se tenga la oportunidad)
  • La alta inteligencia da ventajas infalibles (cuando tenemos numerosos ejemplos alrededor de que no es así)
  • La inteligencia no tiene retornos decrecientes en su aplicabilidad y resultados
  • La inteligencia es capaz de violar las leyes de la física y hacer milagros
  • La inteligencia es independiente del entorno, experiencia y circunstancias de un individuo
  • Se puede abarcar la experiencia de una mente sólo entrenando a base de texto. Cualquiera que haya hecho algo medianamente complicado en su vida sabe que el conocimiento enciclopédico sólo es una pequeña parte.

Por otro lado, lo que diga una parte interesadísima y encima de la capa no técnica (un CEO) no es que me lo tome con un grano de sal, sino con varios sacos.

¿Qué va a decir el presidente de una empresa que está en el candelero ahora mismo por un producto que vive básicamente del boca a boca de usuarios que no quieren comprender sus limitaciones?

Antes de nada, habrá que ver cómo escalan los siguientes modelos "grandes" antes de ponerse a predecir que viviremos en Los Jetsons. La experiencia pasada dice que se tiende a sobreestimar enormemente la tendencia en este campo. Todavía sigo esperando a que suelten de verdad un coche autónomo capaz 100% (nivel 5 sin apoyo externo de ningún tipo). Hace diez años faltaban dos para conseguirlo. Sigo esperando.

El coche autónomo es algo medio imposible. Quizás tenga algún día solución pero es posible que las líneas actuales de desarrollo se hayan topado con un límite.
Veía un vídeo de cómo un Tesla se empanaba más que un octogenario al llegar a una minúscula rotondita holandesa en la coincidían varios pasos de cebra y carriles bici. El tráfico era ridículamente lento y escaso. Un coche se acercaba por un lado, una bici iba por su carril, unos escasos peatones iban por las aceras...pero el coche decía pararse...aparentemente sin saber que hacer.
Entonces te das cuenta de que ese problema tan simple no se puede resolver simplemente detectando objetos y trayectorias. Porque un humano no lo hace así. Un humano tiene en cuenta si el coche que viene por la otra vía es un Seat León con las lunas tintadas, o si el peatón parece tener 5 años o 40, si lleva bolsas de la compra...Hasta las expresiones faciales de la gente o incluso se puede producir comunicación gestual entre los conductores (a veces una sonrisa o un guiño).
Básicamente lo que llamamos "sentido común".

Experiencia cotidiana aprendida desde bebés, que por ser cotidiana subestimamos enormemente. Pero es la que nos hace no tirarnos por las ventanas, saludar al ver a conocidos, saber predecir aproximadamente lo que va a hacer un objeto arbitrario por la calle o no girar contra un camión de varias toneladas en marcha.

Según las normas de tráfico, en una rotonda sin señalización específica dentro de ella, tienen preferencia los vehículos que están dentro, a quienes deben ceder el paso todos los vehículos que quieran acceder a ella. Pues yo estoy harto de tener que ceder el paso a autobuses o camiones dentro de rotondas, aún teniendo preferencia, porque aunque son vehículos más lentos, se saltan a menudo la preferencia a la torera y sólo por su volumen, ya imponen su preferencia.

Si el vehículo con el que te cruzas es un Seat león tuneado, no importa la situación que sea, lo mejor lo evitas, porque probablemente se trata de canis chuleando, con los que mejor no meterse. Y así podríamos seguir indefinidamente con situaciones que no son simulables.
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

senslev

  • Estructuralista
  • ****
  • Gracias
  • -Dadas: 8975
  • -Recibidas: 11422
  • Mensajes: 1644
  • Nivel: 133
  • senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.senslev Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #9 en: Febrero 27, 2023, 17:09:42 pm »
Como la fusión, siempre quedan 50 años, u otras tecnologías que vienen a salvarnos.

Citar
Hace diez años faltaban dos para conseguirlo.
Banalidad del mal es un concepto acuñado por la filósofa alemana H. Arendt para describir cómo un sistema de poder político puede trivializar el exterminio de seres humanos cuando se realiza como un procedimiento burocrático ejecutado por funcionarios incapaces de pensar en las consecuencias éticas.

muyuu

  • Estructuralista
  • ****
  • Gracias
  • -Dadas: 2210
  • -Recibidas: 7661
  • Mensajes: 1842
  • Nivel: 176
  • muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.muyuu Sus opiniones inspiran a los demás.
  • el mercado es tu amigo ☜(゚ヮ゚☜)
    • Ver Perfil
Re:AGI
« Respuesta #10 en: Febrero 27, 2023, 22:35:30 pm »

P.D.

Soy consciente de lo polémico del tema e incluso del problema que supone llegar a un acuerdo sobre lo que significa AGI; para intentar centrar el debate podemos partir de la definición que propone la propia OpenAI en su página "About" a día 26 de febrero de 2023:

Citar
OpenAI’s mission is to ensure that artificial general intelligence
(AGI)—by which we mean highly autonomous systems that
outperform humans at most economically valuable work
—benefits
all of humanity.
...
desde mi punto de vista, el quid de la cuestión viene de esta definición, que concuerda con el trasfondo del hilo "el fin del trabajo" :

históricamente, cuando una tarea queda totalmente automatizada deja de ser un trabajo - el corolario directo es que también deja de tener valor económico, en cuanto a mera actividad, si bien puede tenerlo pero entonces pasa a ser un recurso más, un "recurso no humano" - simple maquinaria o software

el único momento en el que tiene lógica que una actividad sea simultáneamente un trabajo y esté completamente automatizada es por medio de una fragmentación del entorno que permite a quienes trabajan en la actividad no competir con quienes controlan los medios de automatización - implícitamente, es necesario que esta actividad esté estrictamente controlada, por ejemplo por un monopolio o controles sobre los derechos de explotación, ya que de lo contrario es inevitable que ese trabajo se destruya

es por eso que me parece una indirección lo que describe Altman; lo que estaría buscando openAI es que la mayoría de las actividades humanas que tienen explotación como trabajo dejen de ser trabajo... incluso sus propios trabajos como desarrolladores de IA? (edito para añadir: la contradicción es que entonces esas máquinas ya no están haciendo "trabajo" mejor que los humanos, porque acaban de destruir esa actividad como trabajo, no existe tal mercado de trabajo donde solo yo tengo el trabajo automatizado, el no automatizado sobrevive pero con desventaja, y yo me forro - salvo en las condiciones descritas en el párrafo anterior)

básicamente, "el fin del trabajo" - porque el concepto de trabajo quedaría totalmente desvirtuado si solamente un porcentaje pequeño de la sociedad tuviera capacidad de negociación laboral, ya ni hablar si nadie la tuviera
« última modificación: Febrero 27, 2023, 23:52:39 pm por muyuu »

Saturio

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 852
  • -Recibidas: 26229
  • Mensajes: 3378
  • Nivel: 651
  • Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #11 en: Febrero 27, 2023, 23:19:00 pm »
No les hagas caso, la misión y todas las notas de prensa se las escribe el chatbot.

Citar
Acabo de fundar una compañía que trabaja en temas de inteligencia artificial podrías redactar una misión que resulte atractiva para inversores y público

¡Por supuesto! Aquí te presento una misión atractiva para inversores y público para tu compañía de inteligencia artificial:

Nuestra misión en [Nombre de la compañía] es impulsar el potencial humano a través de la tecnología de inteligencia artificial. Estamos comprometidos con la creación de soluciones innovadoras y escalables que aborden los desafíos más apremiantes de nuestro tiempo, desde la optimización de procesos empresariales hasta el avance de la medicina y la resolución de problemas sociales críticos.

Nos apasiona crear tecnología que empodere a las personas para que vivan vidas más productivas, saludables y gratificantes. Creemos que la inteligencia artificial es la clave para desbloquear el potencial humano y estamos dedicados a liderar el camino en la investigación y el desarrollo de soluciones inteligentes que cambien el mundo.

En [Nombre de la compañía], valoramos la innovación, la colaboración y la responsabilidad social. Trabajamos con un enfoque de inclusión y diversidad, y nos esforzamos por crear un futuro donde la tecnología sea utilizada para el bien común. Creemos que juntos podemos lograr un futuro más brillante y estamos emocionados de ser parte del camino hacia el éxito
« última modificación: Febrero 27, 2023, 23:22:14 pm por Saturio »

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41043
  • Mensajes: 8417
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #12 en: Marzo 01, 2023, 22:25:41 pm »
Citar
OpenAI Is Now Everything It Promised Not To Be: Corporate, Closed-Source, and For-Profit
Posted by msmash on Tuesday February 28, 2023 @04:00PM from the closer-look dept.

OpenAI is today unrecognizable, with multi-billion-dollar deals and corporate partnerships. From a report:
Citar
OpenAI was founded in 2015 as a nonprofit research organization by Altman, Elon Musk, Peter Thiel, and LinkedIn cofounder Reid Hoffman, among other tech leaders. In its founding statement, the company declared its commitment to research "to advance digital intelligence in the way that is most likely to benefit humanity as a whole, unconstrained by a need to generate financial return." The blog stated that "since our research is free from financial obligations, we can better focus on a positive human impact," and that all researchers would be encouraged to share "papers, blog posts, or code, and our patents (if any) will be shared with the world."

Now, eight years later, we are faced with a company that is neither transparent nor driven by positive human impact, but instead, as many critics including co-founder Musk have argued, is powered by speed and profit. And this company is unleashing technology that, while flawed, is still poised to increase some elements of workplace automation at the expense of human employees. Google, for example, has highlighted the efficiency gains from AI that autocompletes code, as it lays off thousands of workers. When OpenAI first began, it was envisioned as doing basic AI research in an open way, with undetermined ends. Co-founder Greg Bockman told The New Yorker, "Our goal right now...is to do the best thing there is to do. It's a little vague." This resulted in a shift in direction in 2018 when the company looked to capital resources for some direction. "Our primary fiduciary duty is to humanity. We anticipate needing to marshal substantial resources to fulfill our mission," the company wrote in an updated charter in 2018. By March 2019, OpenAI shed its non-profit status and set up a "capped profit" sector, in which the company could now receive investments and would provide investors with profit capped at 100 times their investment.
Saludos.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41043
  • Mensajes: 8417
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #13 en: Marzo 02, 2023, 06:58:40 am »
OpenAI dará acceso a ChatGPT y a Whisper(*)  a través de una API a toda la comunidad de desarrolladores.

Alexa, Siri, Google Assistant, Cortana y demás asistentes de las big tech van a convertirse de un día para otro en un juguete comparado con lo que puede surgir de la combinación de ChatGPT + Whisper.

Citar
OpenAI Will Let Developers Build ChatGPT Into Their Apps
Posted by BeauHD on Wednesday March 01, 2023 @04:42PM from the bad-news-for-Google dept.

OpenAI, the company behind ChatGPT and DALL-E 2, is launching developer APIs for the AI chatbot and the Whisper speech-transcription model. It also changed its terms of service to let developers opt out of using their data for improvements while adding a 30-day data retention policy. Engadget reports:
Citar
The new ChatGPT API will use the same AI model ("gpt-3.5-turbo") as the popular chatbot, allowing developers to add either unchanged or flavored versions of ChatGPT to their apps. Snap's My AI is an early example, along with a new virtual tutor feature for the online study tool Quizlet and an upcoming Ask Instacart tool in the popular local-shopping app. However, the API won't be limited to brand-specific bots mimicking ChatGPT; it can also power "non-chat" software experiences that could benefit from AI brains. The ChatGPT API is priced at $0.002 per 1,000 tokens (about 750 words). Additionally, it's offering a dedicated-capacity option for deep-pocketed developers who expect to use more tokens than the standard API allows. The new developer options join the consumer-facing ChatGPT Plus, a $20-per-month service launched in February.

Meanwhile, OpenAI's Whisper API is a hosted version of the open-source Whisper speech-to-text model it launched in September. "We released a model, but that actually was not enough to cause the whole developer ecosystem to build around it," OpenAI president and co-founder Greg Brockman told TechCrunch on Tuesday. "The Whisper API is the same large model that you can get open source, but we've optimized to the extreme. It's much, much faster and extremely convenient." The transcription API will cost developers $0.006 per minute, enabling "robust" transcription in multiple languages and providing translation to English.
Further reading: OpenAI Is Now Everything It Promised Not To Be: Corporate, Closed-Source, and For-Profit (Motherboard)
(*) Whisper es, probablemente, el sistema de reconocimiento de voz más rápido y preciso que existe actualmente y es capaz de transcribir audio en más de 90 lenguajes diferentes.

Saludos.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 18985
  • -Recibidas: 41043
  • Mensajes: 8417
  • Nivel: 508
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:AGI
« Respuesta #14 en: Marzo 02, 2023, 19:56:54 pm »
Citar
UK Argues AI Is No More of an Inventor Than Your Cat
Posted by msmash on Thursday March 02, 2023 @11:00AM from the how-about-that dept.

If an artificial intelligence machine can be named as an inventor for a patent, pet cats could be next, lawyers said at the UK's top court arguing only humans can be inventors in law. From a report:
The UK's Supreme Court will decide whether an AI machine can be named as an inventor and who may own the patent. Imagination Engines founder, Stephen Thaler, challenged the rejection of his patent applications naming his AI machine as inventor for a beverage container and a flashing light. Allowing an AI machine to be named as the inventor can open doors to "plainly ridiculous assertion," Stuart Baran, a lawyer for the patent office, said in documents prepared for the case. Should the judges rule in favor of Thaler inventors could include "my cat Felix" or "cosmic forces," he said. Thaler tried registering the patent naming his system, DABUS, as inventor in several countries but was successful only in Australia and South Africa, according to the court documents.
Saludos.

Tags:
 


SimplePortal 2.3.3 © 2008-2010, SimplePortal