* Blog


* Últimos mensajes


* Temas mas recientes

PPCC: Pisitófilos Creditófagos. Primavera 2024 por asustadísimos
[Hoy a las 03:57:40]


XTE-Central 2024 : El opio del pueblo por saturno
[Hoy a las 00:58:14]


AGI por Cadavre Exquis
[Mayo 15, 2024, 06:41:57 am]


Coches electricos por puede ser
[Mayo 14, 2024, 18:53:46 pm]


A brave new world: La sociedad por venir por sudden and sharp
[Mayo 13, 2024, 20:50:47 pm]


Autor Tema: El fin del trabajo  (Leído 898173 veces)

0 Usuarios y 2 Visitantes están viendo este tema.

Маркс

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 16736
  • -Recibidas: 36138
  • Mensajes: 5251
  • Nivel: 804
  • Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.Маркс Sus opiniones inspiran a los demás.
  • Sexo: Masculino
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #525 en: Marzo 31, 2014, 20:26:29 pm »
El ajedrez no representa inteligencia.

La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.


Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.

Ver la posición final ganadora y analizar los variables para llegar, es curiosamente el ejercicio espiritual y mental de practica habitual en el foro, se desea un final la TE, y se analizan los caminos para llegar.

Pd: He sido campeón regional jugando al ajedrez, hace años que lo dejé.

El último que me ganó lo hizo con los ojos vendados  :roto2:.

Lo que está sucediendo es que nos están sometiendo a un proceso de *saqueo* CALCADO, a los procesos neoliberales que practicaron con latinoamérica con la excusa de la "crisis de la deuda" desde los 70, 80 y 90

Starkiller

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 3562
  • -Recibidas: 34116
  • Mensajes: 3619
  • Nivel: 658
  • Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.
  • Babylon 5
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #526 en: Marzo 31, 2014, 20:35:28 pm »
El ajedrez no representa inteligencia.

La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.


Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.

Pero eso tiene en cuenta el jugador que tienes en frente.

Como nadie puede hacer el cálculo perfecto, se toman mil estrategias. Y todas ellas tienen un enorme componente intelectual y un gran mérito.

Pero matemáticamente, y si se tuviera toda la potencia de computación pura (matemática) necesaria, se podría hacer el programa de ajedrez imbatible.

Lo que pasa es que no se tiene.

No niego la enorme capacidad intelectual requerida para jugar al ajedrez sin ser seres perfectos matemáticos, ni la enorme nobleza del juego  (Aunque yo personalmente soy mas de Go, pero eso son gustos).

Lo que intento decir es que un juego que es matemáticamente modelable hasta su última consecuencia, no es el mejor ejemplo para representar la inteligencia consciente.

Lego

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 18660
  • -Recibidas: 16863
  • Mensajes: 3027
  • Nivel: 413
  • Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.Lego Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #527 en: Marzo 31, 2014, 20:37:50 pm »
Citar
inteligencia.
(Del lat. intelligentĭa).
1. f. Capacidad de entender o comprender.   LA IA ES SÓLO FACHADA. *
2. f. Capacidad de resolver problemas.          LA IA ES UNA REALIDAD
3. f. Conocimiento, comprensión, acto de entender.  (el acto de la acepción 1, deberían ir pegadas)
4. f. Sentido en que se puede tomar una sentencia, un dicho o una expresión. (no aplicable a la discusión)
5. f. Habilidad, destreza y experiencia.    LA IA ES UNA REALIDAD
6. f. Trato y correspondencia secreta de dos o más personas o naciones entre sí. (no aplicable)
7. f. Sustancia puramente espiritual.   LA IA ES SÓLO FACHADA.

* con rerervas.  Nos encontraríamos discutiendo el término "entender".  Cuando le pides algo a Siri y funciona, ¿se puede decir que te ha entendido? En función de lo que contestes a eso, irá tu respuesta a la cuestión principal sobre la IA según la acepción 1 de Inteligencia.

« última modificación: Marzo 31, 2014, 20:49:17 pm por Lego »

Datum

  • Ojiplático
  • *
  • Gracias
  • -Dadas: 1124
  • -Recibidas: 438
  • Mensajes: 89
  • Nivel: 13
  • Datum Sin influencia
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #528 en: Marzo 31, 2014, 20:43:42 pm »
El ajedrez no representa inteligencia.

La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.



Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.

Ver la posición final ganadora y analizar los variables para llegar, es curiosamente el ejercicio espiritual y mental de practica habitual en el foro, se desea un final la TE, y se analizan los caminos para llegar.

Pd: He sido campeón regional jugando al ajedrez, hace años que lo dejé.

El último que me ganó lo hizo con los ojos vendados  :roto2:.


Este foro me encanta, es similar al ajedrez, se conoce la posición ganadora la TE, ciertos jugadores analizan las variables que consideran llevan a la TE, otros  analizan la posición actual, otros corrigen variables erróneas, otros explican los movimientos.

Entre todos hacéis posible que este foro sea un  espacio realmente útil e invite a la reflexión.

!!Gracias!!





pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 27116
  • -Recibidas: 29502
  • Mensajes: 3455
  • Nivel: 462
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #529 en: Marzo 31, 2014, 21:53:55 pm »
Creo que esto es relevante. Sobre HFT y sus interioridades:

http://www.nytimes.com/2014/04/06/magazine/flash-boys-michael-lewis.html?_r=0

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 27116
  • -Recibidas: 29502
  • Mensajes: 3455
  • Nivel: 462
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #530 en: Marzo 31, 2014, 22:07:04 pm »
El ajedrez no representa inteligencia.

La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.

Contra esa forma, ejecutada correctamente, nadie puede ganar. como mucho, se puede forzar tablas.

El problema esta en que no existe la potencia de cálculo para hacer eso; luego lo que se hace es un método heurístico* de corte de ramas.

Y dependiendo exclusivamente de la calidad de ese método heurístico, y de la potencia de computación, así de bueno es el cacharro que juega.

Con esto lo que quiero decir es que es necio medir la inteligencia por un juego en el que el jugador definitivo es, matemáticamente, una máquina.

Además, que cojones, si los ajedrecistas profesionales funcionan igual: predicen muchas jugadas de adelanto, y saben podar rápidamente el arbol (Si hago estas quince jugadas se que pierdo, estas veinte no tienen sentido, me quedan estas tres para elegir).

Por otro lado, teniendo en cuenta que trabajo en cosillas remótamente relacionadas, mi opinión acerca del tema es:

1. Ni la IA es una panacea que vayamos a ver a corto plazo...
2. Ni es el montón de humo que afirma pollo.


Por ejemplo, creo que es realtivamente factible que en menos de diez años tengamos un software que te permita manejar verbalmente la domótica de tu casa, que te grabe tu programa preferido, que si le pides la cotización de la bolsa de Tombuctu sepa buscartela en internet, y que incluso ahga charcarrillos contigo.

¿Eso es una IA? No, es un interfaz de comandos natural, con capacidad de simulación de personalidad. Un montón de trucos, cuentas de la vieja y ñapas que, en conjunto, funcionarán razonablemente bien.
________
*Heurístico, en informática, es la forma técnica de decir "A calzón quitaó", "por la cuenta de la vieja" o "me da a mi que va a ser mas o menos así...".
Oye, que yo no he dicho que sea una venta de humo (¿donde?). Pero a las cosas que se les llame por su nombre y que no se defina como inteligente algo que a todas luces nunca lo fue, excepto para los periodistas y quienes lo venden.

Vamos, yo no opinaba esto hasta que tuve que trabajar con ello, así que por algo lo diré. No hay mejor forma de darse cuenta de las exageraciones y las inexactitudes que teniendo que entenderlo uno mismo con cierta profundidad.

Así que no, no es humo, pero sí que hay mucha venta de humo, y en mi opinión demasiada confianza en los sistemas "inteligentes". A mí al menos siempre me han acabado decepcionando, y tengo por seguro que nunca confiaría mi vida a algo lo suficientemente complejo como para que su creador no pueda comprender el 100% de lo que hace su programa por dentro si lo para con un debugger.

Esto es algo que se ve rápidamente con cosas como el reconocimiento de rostros, en el que ya dejamos el mundo de la infalibilidad reconfortante de los programas clásicos y ya entramos en el terreno de las tasas de acierto y error.
« última modificación: Marzo 31, 2014, 22:31:23 pm por pollo »

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 27116
  • -Recibidas: 29502
  • Mensajes: 3455
  • Nivel: 462
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #531 en: Marzo 31, 2014, 22:28:43 pm »
El ajedrez es ante todo un deporte intelectual donde la habilidad prima.

También hay quien asevera que es una ciencia.

Y como todos los deportes si se entrenan desde edades tempranas mejor que mejor, de hecho los grandes maestros fueron grandes jugadores de niños (algún que otro crío de 10 años me ha puesto en más de un compromiso).

También hay quienes lo consideran un arte.

Sin plan y estrategia ya puedes ser todo lo inteligente que quieras que tienes todos los números para perder.

Con lo psicológico también juegas; en el momento que has detectado una falta en el juego influye en el posterior desarrollo de la partida. Esto es algo que Deep Blue no lo sufrirá. Luego tenemos la personalidad, y esta sí está codificada en según qué partidas por la máquina; no es lo mismo estudiar una partida de Capablanca (verdadero artista del ajedrez) que otra de karpov (técnico y analítico). Cuando estudias este juego sabes diferenciar las partidas de estos genios de la misma forma que distingues a Bach de Beethoven.

Y todo ello sin contar la preparación física. Un simple resfriado afecta en el juego e influye en el resultado.

Pero quiero hacer hincapié en la personalidad del jugador. Si eres agresivo en la vida tus partidas se ejecutarán combativas, si por el contrario eres apocado tus partidas se desarrollarán temerosas y, sobre todo, traicioneras; suelen ser jugadores que diseñan emboscadas.
Sí, pero si dejas a un ordenador el tiempo suficiente, da igual lo bueno que sea el jugador humano: siempre encontraría la jugada más óptima. Claro que para asegurarse al 100% de eso hace falta calcular durante billones de años, así que tanto da. Básicamente la "habilidad" de un ordenador radica en que puede planificar mucho más rápido y a lo bestia que un humano, y no olvida nada de lo que calcula. Por eso no es inteligencia: es fuerza bruta.

Da que pensar que un maestro ajedrecista consiga algo muy parecido con muchísimos menos recursos, aunque tampoco debemos engañarnos: el humano ha tenido multitud de experiencias con ello para aprender. Pero aprende de forma mucho más eficiente. No le hace falta jugar millones de partidas. Probablemente a lo largo de su vida no llegue a las 10.000.

Lo mismo se puede decir con los traductores tipo Google Translate que funcionan a base de fuerza bruta.
Hay dos grandes tipos de traductores: los basados en reglas y los estadísticos.

Google translate pertenece a estos últimos (ya que los basados en reglas dejaban mucho que desear), aunque en puridad, es un poco híbrido. Básicamente se le alimenta con un corpus de texto equivalente en todos los idiomas entre los que se quiere traducir (que nadie pierda de vista que esto es un trabajo esencialmente humano del que luego se aprovechará el algoritmo) y se establecen correlaciones estadísticas entre diferentes trozos de texto de significado más o menos equivalente. A todo esto se le añaden ciertas reglas para ajustar casos y corregir errores comunes, excepciones y demás.

El problema es que el significado nunca o casi nunca es equivalente, ya que hay multitud de matices, connotaciones y problemas a la hora de traducir, ya que un ordenador traduce palabras y frases y un traductor bueno (no alguien que chapurrea) traduce conceptos y además usa contexto, tiene cultura, y entiende lo que está traduciendo, cosas imprescindibles para traducir algo correctamente.

El traductor automático hace un trabajo bastante decente, pero como ya estamos acostumbrados, mete gambazos absurdos de vez en cuando, porque no es posible que sepa el contexto o las connotaciones, frases hechas, dobles sentidos y juegos de palabras que se puedan estar usando. Además cuanto más alejados están los idiomas, más inconsistentes y carentes de sentido son los resultados. Si pudiese distinguir esto por comprensión, estaríamos hablando de inteligencia, pero eso no es posible con una base de datos y una serie de reglas fijas que no comprenden lo que están traduciendo.

La inteligencia está toda en quien programó el sistema, que es una máquina ingeniosa para obtener traducciones aproximadas, pero no es un verdadero traductor que sepa todos los casos, porque para ello tiene que comprender lo que está traduciendo.

Datum

  • Ojiplático
  • *
  • Gracias
  • -Dadas: 1124
  • -Recibidas: 438
  • Mensajes: 89
  • Nivel: 13
  • Datum Sin influencia
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #532 en: Marzo 31, 2014, 22:50:45 pm »
El ajedrez no representa inteligencia.

La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.



Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.

Pero eso tiene en cuenta el jugador que tienes en frente.

Como nadie puede hacer el cálculo perfecto, se toman mil estrategias. Y todas ellas tienen un enorme componente intelectual y un gran mérito.

Pero matemáticamente, y si se tuviera toda la potencia de computación pura (matemática) necesaria, se podría hacer el programa de ajedrez imbatible.

Lo que pasa es que no se tiene.

No niego la enorme capacidad intelectual requerida para jugar al ajedrez sin ser seres perfectos matemáticos, ni la enorme nobleza del juego  (Aunque yo personalmente soy mas de Go, pero eso son gustos).

Lo que intento decir es que un juego que es matemáticamente modelable hasta su última consecuencia, no es el mejor ejemplo para representar la inteligencia consciente.

Te explico por encima el concepto de la diferencia entre máquina y humano.

Lo primero es salir cuanto antes de la teoría de apertura con alguna linea que ofrezca igualdad, se consigue que la máquina no use los libros de teoría de apertura y la base de datos.

Se intenta llevar el juego a un estilo posicional, donde el puro calculo no lleva a posiciones ganadoras, se obliga a la máquina a valorar posiciones y lo que más le jode, elaborar un plan..

Se intenta conseguir ligera ventaja sin meterse en lineas que lleven a variantes forzadas donde predomine el calculo, y así poco a poco aumentando la ligera ventaja  se intentan conseguir ventaja definitiva y explotarla. 

Tuve cierta amistad con GM (Gran maestro) rusos que jugaban en equipos locales cobrando y te puedo asegurar que no pude apreciar fuera del tablero más inteligencia  de lo normal.




sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 50002
  • -Recibidas: 59669
  • Mensajes: 9778
  • Nivel: 980
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #533 en: Marzo 31, 2014, 22:59:11 pm »
El "cansancio" mental también juega.

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 27116
  • -Recibidas: 29502
  • Mensajes: 3455
  • Nivel: 462
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #534 en: Marzo 31, 2014, 23:06:03 pm »
El ajedrez no representa inteligencia.

La forma perfecta de jugar al ajedrez es valorar en cada turno todas las jugadas, y tomar las que mayores posibilidades ofrecen siempre.



Una de las formas de analizar una posición es imaginar una disposición de piezas acorde a la posición que ofrezca ventaja, y analizar cómo llegar a ella, es decir, se empieza el análisis por el final.

Pero eso tiene en cuenta el jugador que tienes en frente.

Como nadie puede hacer el cálculo perfecto, se toman mil estrategias. Y todas ellas tienen un enorme componente intelectual y un gran mérito.

Pero matemáticamente, y si se tuviera toda la potencia de computación pura (matemática) necesaria, se podría hacer el programa de ajedrez imbatible.

Lo que pasa es que no se tiene.

No niego la enorme capacidad intelectual requerida para jugar al ajedrez sin ser seres perfectos matemáticos, ni la enorme nobleza del juego  (Aunque yo personalmente soy mas de Go, pero eso son gustos).

Lo que intento decir es que un juego que es matemáticamente modelable hasta su última consecuencia, no es el mejor ejemplo para representar la inteligencia consciente.

Te explico por encima el concepto de la diferencia entre máquina y humano.

Lo primero es salir cuanto antes de la teoría de apertura con alguna linea que ofrezca igualdad, se consigue que la máquina no use los libros de teoría de apertura y la base de datos.

Se intenta llevar el juego a un estilo posicional, donde el puro calculo no lleva a posiciones ganadoras, se obliga a la máquina a valorar posiciones y lo que más le jode, elaborar un plan..

Se intenta conseguir ligera ventaja sin meterse en lineas que lleven a variantes forzadas donde predomine el calculo, y así poco a poco aumentando la ligera ventaja  se intentan conseguir ventaja definitiva y explotarla. 

Tuve cierta amistad con GM (Gran maestro) rusos que jugaban en equipos locales cobrando y te puedo asegurar que no pude apreciar fuera del tablero más inteligencia  de lo normal.
El juego chino Go es famoso por resistirse a los intentos de hacer que un ordenador lo juegue bien. ¿Por qué? Porque el truco de la fuerza bruta no vale. Hay muchísimas más combinaciones aún que en el ajedrez, y es dificilísimo encontrar una estrategia de poda del arbol de jugadas posibles, por la cantidad tan inmensamente brutal de posibilidades y de hecho por la propia mecánica, completamente diferente de la del ajedrez. Se han hecho avances tímidos, pero un jugador medianamente experimentado da palizones a los algoritmos más avanzados...

Starkiller

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 3562
  • -Recibidas: 34116
  • Mensajes: 3619
  • Nivel: 658
  • Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.Starkiller Sus opiniones inspiran a los demás.
  • Babylon 5
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #535 en: Marzo 31, 2014, 23:34:06 pm »
Así que no, no es humo, pero sí que hay mucha venta de humo, y en mi opinión demasiada confianza en los sistemas "inteligentes". A mí al menos siempre me han acabado decepcionando, y tengo por seguro que nunca confiaría mi vida a algo lo suficientemente complejo como para que su creador no pueda comprender el 100% de lo que hace su programa por dentro si lo para con un debugger.

Esto es algo que se ve rápidamente con cosas como el reconocimiento de rostros, en el que ya dejamos el mundo de la infalibilidad reconfortante de los programas clásicos y ya entramos en el terreno de las tasas de acierto y error.

A ver, una cosa es lo que venden (El mero nombre de IA es engañoso), y otra, lo que hay.

Pero vamos, que las simulaciones de x que hay son lo que son, valen para lo que valen, y avanza el tema bastante rápido. Ha estado bloqueado por mucho tiempo por diversos motivos: sin un buen reconocimiento de voz y un buen reconocimiento visual, las principales aplicaciones de ese software carecen de sentido. Ahora que eso se ha desbloqueado, debría haber muchos avances (Ya los habría habido de no ser por el gordo apestoso de Ballmer).

Acerca de entenderlo... entiendes porque hace lo que hace. Coño, si tu mismo lo buscas. Otra cosa es que sea matemático, o, sobre todo, que sea intuitivo de primeras. Pero que no sea evidente, sobre todo para una mente matemática, que sea difuso, no quiere decir que sea imprevisible.

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 19584
  • -Recibidas: 43872
  • Mensajes: 9074
  • Nivel: 543
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #536 en: Abril 01, 2014, 00:39:52 am »
A mí al menos siempre me han acabado decepcionando, y tengo por seguro que nunca confiaría mi vida a algo lo suficientemente complejo como para que su creador no pueda comprender el 100% de lo que hace su programa por dentro si lo para con un debugger.

Sé que es un poco "a traición", pero... si consideramos que el "software" que nos gobierna a nosotros es tan complejo que, como se ha comentado en varios posts anteriores, no hemos sido capaces de comprender apenas nada sobre su funcionamiento... ¿le parece razonable confiar su vida a sí mismo? ¿Quién le dice a usted que la próxima vez que esté esperando a que se ponga en verde el semáforo para cruzar un paso de cebra, el software complejísimo que le mantiene con vida no va a entrar en el la rama equivocada del "if" y le va a impulsar a arrojarse justo delante del coche que se acerca por la izquierda a 90 km/h? ;)

Supongo que la respuesta es que, aunque teóricamente podría suceder, en la práctica, la parte del software que llevamos "hardcodeada" gracias a unos cuantos miles de millones de años de evolución (Lego lo ha mencionado en varias ocasiones y yo, a partir de ahora, me referiría a esa parte de nuestro software como nuestro firmware) está ya muy depurada y, salvo por problemas mentales realmente serios, casi seguro que esa parte del firmware que llamamos "instinto de conservación" le mantendrá a salvo de un accidente probablemente mortal.

El problema es que el significado nunca o casi nunca es equivalente, ya que hay multitud de matices, connotaciones y problemas a la hora de traducir, ya que un ordenador traduce palabras y frases y un traductor bueno (no alguien que chapurrea) traduce conceptos y además usa contexto, tiene cultura, y entiende lo que está traduciendo, cosas imprescindibles para traducir algo correctamente.

Aquí estoy totalmente de acuerdo con usted, el verdadero problema de una traducción es que el traductor debe contar con la cultura y los conocimientos precisos para ubicar la obra completa en su contexto. Algunas veces bastará con hacer una traducción prácticamente literal de una frase, otras necesitará situar la frase en el contexto del párrafo, en el del capítulo e, incluso, en el libro entero, pero una traducción realmente buena debe ir incluso más allá de la obra concreta que se está traduciendo, la obra debe ser ubicada entre el resto de las obras del autor y, este, en el lugar, la época y las circunstancias en las que sus obras fueron redactadas.

La traducción de una obra como, por ejemplo, "Los miserables" de Víctor Hugo exige necesariamente un conocimiento muy profundo del autor y de sus circunstancias así como del contexto histórico (social, político, etc.) en el que fue escrita.

Pero, aun siendo cierto lo dicho anteriormente, como se ha comentado en varios posts en las últimas dos páginas, la calidad de las traducciones de Google o la capacidad de Watson para desentrañar los juegos de palabras y los dobles sentidos (que son casi una norma no escrita en el concurso de Jeopardy), son suficientemente buenas como para que la máquina -que estoy de acuerdo con ustedes en que no es inteligente y se limita, mediante algoritmos muy sofisticados eso sí, a rastrear enormes bases de datos (entre las cuales, por supuesto, está la Wikipedia, una gigantesca base de datos en la que los humanos ya nos hemos encargado de enlazar  los conceptos mediante hiperenlaces y, creando, cuando es necesario, innumerables páginas de desambiguación que son una herramienta valiosísima para dichos algoritmos a la hora de resolver preguntas con dosbles -o triples- sentidos y/o preguntas trampa) y, como decía, al final "da el pego" hasta el punto de vencer a las dos personas que más lejos habían llegado hasta entonces en el famoso concurso.

Que sí, que Watson no sabe hacer una paella (yo, sinceramente, tampoco y por supuesto que podría aprender, pero tendría que burscar la receta en algún sitio... ¿quizás en la Wikpedia? ;)) pero como bien comenta Lego, quizás algún día alguien se plantée crear un interface web para Watson con el fin de que Asimo pueda interpretar frases con doble sentido mientras hace una paella según las instrucciones de la WIkipedia y, cuando Asimo te pregunte si te ha gustado y le digas que "está para chuparse los dedos" te dará las gracias en vez de pensar que te falta un tornillo ;)

Y aunque suponga cambiar un poco de tema -aunque no tanto, porque los algoritmos evolutivos son, junto con las redes neuronales, otro de los métodos más empleados en el campo de la IA- ¿Qué opinan ustedes de esto?

On the Origin of Circuits
Citar
In a unique laboratory in Sussex, England, a computer carefully scrutinized every member of large and diverse set of candidates. Each was evaluated dispassionately, and assigned a numeric score according to a strict set of criteria. This machine's task was to single out the best possible pairings from the group, then force the selected couples to mate so that it might extract the resulting offspring and repeat the process with the following generation. As predicted, with each breeding cycle the offspring evolved slightly, nudging the population incrementally closer to the computer's pre-programmed definition of the perfect individual.

The candidates in question were not the stuff of blood, guts, and chromosomes that are normally associated with evolution, rather they were clumps of ones and zeros residing within a specialized computer chip. As these primitive bodies of data bumped together in their silicon logic cells, Adrian Thompson —the machine's master— observed with curiosity and enthusiasm.

Dr. Adrian Thompson is a researcher operating from the Department of Informatics at the University of Sussex, and his experimentation in the mid-1990s represented some of science's first practical attempts to penetrate the virgin domain of hardware evolution. The concept is roughly analogous to Charles Darwin's elegant principle of natural selection, which describes how individuals with the most advantageous traits are more likely to survive and reproduce. This process tends to preserve favorable characteristics by passing them to the survivors' descendants, while simultaneously suppressing the spread of less-useful traits.

Dr. Thompson dabbled with computer circuits in order to determine whether survival-of-the-fittest principles might provide hints for improved microchip designs. As a test bed, he procured a special type of chip called a Field-Programmable Gate Array (FPGA) whose internal logic can be completely rewritten as opposed to the fixed design of normal chips. This flexibility results in a circuit whose operation is hot and slow compared to conventional counterparts, but it allows a single chip to become a modem, a voice-recognition unit, an audio processor, or just about any other computer component. All one must do is load the appropriate configuration.

The informatics researcher began his experiment by selecting a straightforward task for the chip to complete: he decided that it must reliably differentiate between two particular audio tones. A traditional sound processor with its hundreds of thousands of pre-programmed logic blocks would have no trouble filling such a request, but Thompson wanted to ensure that his hardware evolved a novel solution. To that end, he employed a chip only ten cells wide and ten cells across —a mere 100 logic gates. He also strayed from convention by omitting the system clock, thereby stripping the chip of its ability to synchronize its digital resources in the traditional way.

He cooked up a batch of primordial data-soup by generating fifty random blobs of ones and zeros. One by one his computer loaded these digital genomes into the FPGA chip, played the two distinct audio tones, and rated each genome's fitness according to how closely its output satisfied pre-set criteria. Unsurprisingly, none of the initial randomized configuration programs came anywhere close. Even the top performers were so profoundly inadequate that the computer had to choose its favorites based on tiny nuances. The genetic algorithm eliminated the worst of the bunch, and the best were allowed to mingle their virtual DNA by swapping fragments of source code with their partners. Occasional mutations were introduced into the fruit of their digital loins when the control program randomly changed a one or a zero here and there.

For the first hundred generations or so, there were few indications that the circuit-spawn were any improvement over their random-blob ancestors. But soon the chip began to show some encouraging twitches. By generation #220 the FPGA was essentially mimicking the input it received, a reaction which was a far cry from the desired result but evidence of progress nonetheless. The chip's performance improved in minuscule increments as the non-stop electronic orgy produced a parade of increasingly competent offspring. Around generation #650, the chip had developed some sensitivity to the 1kHz waveform, and by generation #1,400 its success rate in identifying either tone had increased to more than 50%.

Finally, after just over 4,000 generations, test system settled upon the best program. When Dr. Thompson played the 1kHz tone, the microchip unfailingly reacted by decreasing its power output to zero volts. When he played the 10kHz tone, the output jumped up to five volts. He pushed the chip even farther by requiring it to react to vocal "stop" and "go" commands, a task it met with a few hundred more generations of evolution. As predicted, the principle of natural selection could successfully produce specialized circuits using a fraction of the resources a human would have required. And no one had the foggiest notion how it worked.

Dr. Thompson peered inside his perfect offspring to gain insight into its methods, but what he found inside was baffling. The plucky chip was utilizing only thirty-seven of its one hundred logic gates, and most of them were arranged in a curious collection of feedback loops. Five individual logic cells were functionally disconnected from the rest —with no pathways that would allow them to influence the output— yet when the researcher disabled any one of them the chip lost its ability to discriminate the tones. Furthermore, the final program did not work reliably when it was loaded onto other FPGAs of the same type.

It seems that evolution had not merely selected the best code for the task, it had also advocated those programs which took advantage of the electromagnetic quirks of that specific microchip environment. The five separate logic cells were clearly crucial to the chip's operation, but they were interacting with the main circuitry through some unorthodox method —most likely via the subtle magnetic fields that are created when electrons flow through circuitry, an effect known as magnetic flux. There was also evidence that the circuit was not relying solely on the transistors' absolute ON and OFF positions like a typical chip; it was capitalizing upon analogue shades of gray along with the digital black and white.

Today, researchers are just beginning to explore the real-world potential of evolving circuitry. Engineers are experimenting with rudimentary adaptive hardware systems which marry evolvable chips to conventional equipment. Such hybrids quickly adapt to new demands by constantly evolving and adjusting their control code. The space exploration industry is intrigued by the technology —an evolving system could dynamically reprogram itself to avoid any circuits damaged by radiation, reducing the need for heavy shielding and redundant systems. Similarly, researchers speculate that robots might one day use evolution-inspired systems to quickly adapt to unforeseen obstacles in their environment.

Modern supercomputers are also contributing to artificial evolution, applying their massive processing power to develop simulated prototypes. The initial designs are thoroughly tested within carefully crafted virtual environments, and the best candidates are used to breed successive batches until a satisfactory solution has evolved. These last-generation designs are then fabricated and tested in the real world. NASA recently used this approach to produce the antenna for a spacegoing vessel, resulting in flamboyant-yet-effective shapes that vaguely resemble organic lifeforms —unlike anything an engineer would design without the benefit of mood-altering drugs. Scientists hope to eventually use genetic algorithms to improve complex devices such as motors and rockets, but progress is dependent upon the development of extremely accurate simulations.


The two best antenna designs produced by NASA's artificial evolution software

These evolutionary computer systems may almost appear to demonstrate a kind of sentience as they dispense graceful solutions to complex problems. But this apparent intelligence is an illusion caused by the fact that the overwhelming majority of design variations tested by the system —most of them appallingly unfit for the task— are never revealed. According to current understanding, even the most advanced microchips fall far short of the resources necessary to host legitimate intelligence. On the other hand, at one time many engineers might have insisted that it's impossible to train an unclocked 10x10 FPGA to distinguish between two distinct audio tones.

There is also an ethical conundrum regarding the notion that human lives may one day depend upon these incomprehensible systems. There is concern that a dormant "gene" in a medical system or flight control program might express itself without warning, sending the mutant software on an unpredictable rampage. Similarly, poorly defined criteria might allow a self-adapting system to explore dangerous options in its single-minded thrust towards efficiency, placing human lives in peril. Only time and testing will determine whether these risks can be mitigated. ;)

If evolvable hardware passes muster, the Sussex circuits may pave the way for a new kind of computing. Given a sufficiently well-endowed Field-Programmable Gate Array and a few thousand exchanges of genetic material, there are few computational roles that these young and flexible microchips will be unable to satisfy. While today's computers politely use programmed instructions to solve predictable problems, these adaptable alternatives may one day strip away such limits and lay bare the elegant solutions that the human mind is reluctant —or powerless— to conceive on its own.

Written by Alan Bellows, posted on 27 June 2007. Alan is the founder/designer/head writer/managing editor of Damn Interesting.

Después de 4.100 generaciones el Dr. Adrian Thompson se encontró con que tenía delante un FGPA capaz de distinguir la palabra "stop" de la palabra "go", que aparentemente utilizaba únicamente 37 puertas lógicas de las 100 de que disponía y en el que la mayoría de las puertas lógicas estaban interconectadas formando bucles de realimentación aparte de otras cinco puertas lógicas que, en principio, estaban totalmente desconectadas de las anteriores pero que, sorprendentemente, provocaban que el diseño dejase de funcionar si se deshabilitaba cualquiera de ellas.

Un ejemplo en el que se logra crear "inteligencia" (por supuesto muy limitada, pero conozco cucarachas que no responden ante un "stop" y un "go", igual es que no saben inglés... ;)) sin una programación previa y en donde, como ocurre con los seres vivos, el resultado final es el resultado de seguir un proceso de "ensayo, error" durante unas cuantas miles de generaciones.


Muchas gracias y un saludo a todos por contribuir al debate.

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 27116
  • -Recibidas: 29502
  • Mensajes: 3455
  • Nivel: 462
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #537 en: Abril 01, 2014, 01:46:19 am »
Así que no, no es humo, pero sí que hay mucha venta de humo, y en mi opinión demasiada confianza en los sistemas "inteligentes". A mí al menos siempre me han acabado decepcionando, y tengo por seguro que nunca confiaría mi vida a algo lo suficientemente complejo como para que su creador no pueda comprender el 100% de lo que hace su programa por dentro si lo para con un debugger.

Esto es algo que se ve rápidamente con cosas como el reconocimiento de rostros, en el que ya dejamos el mundo de la infalibilidad reconfortante de los programas clásicos y ya entramos en el terreno de las tasas de acierto y error.

A ver, una cosa es lo que venden (El mero nombre de IA es engañoso), y otra, lo que hay.

Pero vamos, que las simulaciones de x que hay son lo que son, valen para lo que valen, y avanza el tema bastante rápido. Ha estado bloqueado por mucho tiempo por diversos motivos: sin un buen reconocimiento de voz y un buen reconocimiento visual, las principales aplicaciones de ese software carecen de sentido. Ahora que eso se ha desbloqueado, debría haber muchos avances (Ya los habría habido de no ser por el gordo apestoso de Ballmer).

Acerca de entenderlo... entiendes porque hace lo que hace. Coño, si tu mismo lo buscas. Otra cosa es que sea matemático, o, sobre todo, que sea intuitivo de primeras. Pero que no sea evidente, sobre todo para una mente matemática, que sea difuso, no quiere decir que sea imprevisible.

Me refiero a cosas como que cuando entrenas una red neuronal, los pesos que tiene como resultado del entrenamiento no puedes interpretarlos de ninguna forma que te permita entender porqué funciona como funciona (si te la sueltan sin decirte nada). Tú puedes ver un programa y figurarte lo que hace. Lo que no puedes es ver los pesos de una red neuronal y saber para qué sirve.

Cuando el sistema es inabarcable o funciona de forma que la lógica es indirecta, como en este caso, no puedes establecer por qué falla en el caso de que falle.

No es posible depurar o mejorar el entrenamiento de un sistema de aprendizaje de este tipo a base de mirar el estado, porque ese estado no representa nada que podamos entender de forma directa (no tiene un modelo conceptualizable, mientras que el mecanismo sobre el que se sustenta sí).
De hecho el problema de hacer ingeniería inversa con nuestro cerebro es exactamente ese. Podemos entender cómo funciona una neurona. Es extremadamente difícil saber cómo funciona cada una de ellas de forma conjuntada y de qué forma esa orquestación produce resultados, o almacena recuerdos.

La alta complejidad es un impedimiento, y no siempre se puede usar fuerza bruta. Por eso, aunque sepamos una cantidad inmensa de detalles sobre la física newtoniana, es extremadamente difícil hacer por ejemplo un modelo del clima planetario: al final siempre se te escapan cosas, porque no puedes tenerlo todo en cuenta, y cualquier detalle que falte puede ser extremadamente importante.

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 27116
  • -Recibidas: 29502
  • Mensajes: 3455
  • Nivel: 462
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #538 en: Abril 01, 2014, 02:10:39 am »
A mí al menos siempre me han acabado decepcionando, y tengo por seguro que nunca confiaría mi vida a algo lo suficientemente complejo como para que su creador no pueda comprender el 100% de lo que hace su programa por dentro si lo para con un debugger.

Sé que es un poco "a traición", pero... si consideramos que el "software" que nos gobierna a nosotros es tan complejo que, como se ha comentado en varios posts anteriores, no hemos sido capaces de comprender apenas nada sobre su funcionamiento... ¿le parece razonable confiar su vida a sí mismo? ¿Quién le dice a usted que la próxima vez que esté esperando a que se ponga en verde el semáforo para cruzar un paso de cebra, el software complejísimo que le mantiene con vida no va a entrar en el la rama equivocada del "if" y le va a impulsar a arrojarse justo delante del coche que se acerca por la izquierda a 90 km/h? ;)

Supongo que la respuesta es que, aunque teóricamente podría suceder, en la práctica, la parte del software que llevamos "hardcodeada" gracias a unos cuantos miles de millones de años de evolución (Lego lo ha mencionado en varias ocasiones y yo, a partir de ahora, me referiría a esa parte de nuestro software como nuestro firmware) está ya muy depurada y, salvo por problemas mentales realmente serios, casi seguro que esa parte del firmware que llamamos "instinto de conservación" le mantendrá a salvo de un accidente probablemente mortal.

El problema es que el significado nunca o casi nunca es equivalente, ya que hay multitud de matices, connotaciones y problemas a la hora de traducir, ya que un ordenador traduce palabras y frases y un traductor bueno (no alguien que chapurrea) traduce conceptos y además usa contexto, tiene cultura, y entiende lo que está traduciendo, cosas imprescindibles para traducir algo correctamente.

Aquí estoy totalmente de acuerdo con usted, el verdadero problema de una traducción es que el traductor debe contar con la cultura y los conocimientos precisos para ubicar la obra completa en su contexto. Algunas veces bastará con hacer una traducción prácticamente literal de una frase, otras necesitará situar la frase en el contexto del párrafo, en el del capítulo e, incluso, en el libro entero, pero una traducción realmente buena debe ir incluso más allá de la obra concreta que se está traduciendo, la obra debe ser ubicada entre el resto de las obras del autor y, este, en el lugar, la época y las circunstancias en las que sus obras fueron redactadas.

La traducción de una obra como, por ejemplo, "Los miserables" de Víctor Hugo exige necesariamente un conocimiento muy profundo del autor y de sus circunstancias así como del contexto histórico (social, político, etc.) en el que fue escrita.

Pero, aun siendo cierto lo dicho anteriormente, como se ha comentado en varios posts en las últimas dos páginas, la calidad de las traducciones de Google o la capacidad de Watson para desentrañar los juegos de palabras y los dobles sentidos (que son casi una norma no escrita en el concurso de Jeopardy), son suficientemente buenas como para que la máquina -que estoy de acuerdo con ustedes en que no es inteligente y se limita, mediante algoritmos muy sofisticados eso sí, a rastrear enormes bases de datos (entre las cuales, por supuesto, está la Wikipedia, una gigantesca base de datos en la que los humanos ya nos hemos encargado de enlazar  los conceptos mediante hiperenlaces y, creando, cuando es necesario, innumerables páginas de desambiguación que son una herramienta valiosísima para dichos algoritmos a la hora de resolver preguntas con dosbles -o triples- sentidos y/o preguntas trampa) y, como decía, al final "da el pego" hasta el punto de vencer a las dos personas que más lejos habían llegado hasta entonces en el famoso concurso.

Que sí, que Watson no sabe hacer una paella (yo, sinceramente, tampoco y por supuesto que podría aprender, pero tendría que burscar la receta en algún sitio... ¿quizás en la Wikpedia? ;)) pero como bien comenta Lego, quizás algún día alguien se plantée crear un interface web para Watson con el fin de que Asimo pueda interpretar frases con doble sentido mientras hace una paella según las instrucciones de la WIkipedia y, cuando Asimo te pregunte si te ha gustado y le digas que "está para chuparse los dedos" te dará las gracias en vez de pensar que te falta un tornillo ;)

Y aunque suponga cambiar un poco de tema -aunque no tanto, porque los algoritmos evolutivos son, junto con las redes neuronales, otro de los métodos más empleados en el campo de la IA- ¿Qué opinan ustedes de esto?

On the Origin of Circuits
Citar
In a unique laboratory in Sussex, England, a computer carefully scrutinized every member of large and diverse set of candidates. Each was evaluated dispassionately, and assigned a numeric score according to a strict set of criteria. This machine's task was to single out the best possible pairings from the group, then force the selected couples to mate so that it might extract the resulting offspring and repeat the process with the following generation. As predicted, with each breeding cycle the offspring evolved slightly, nudging the population incrementally closer to the computer's pre-programmed definition of the perfect individual.

The candidates in question were not the stuff of blood, guts, and chromosomes that are normally associated with evolution, rather they were clumps of ones and zeros residing within a specialized computer chip. As these primitive bodies of data bumped together in their silicon logic cells, Adrian Thompson —the machine's master— observed with curiosity and enthusiasm.

Dr. Adrian Thompson is a researcher operating from the Department of Informatics at the University of Sussex, and his experimentation in the mid-1990s represented some of science's first practical attempts to penetrate the virgin domain of hardware evolution. The concept is roughly analogous to Charles Darwin's elegant principle of natural selection, which describes how individuals with the most advantageous traits are more likely to survive and reproduce. This process tends to preserve favorable characteristics by passing them to the survivors' descendants, while simultaneously suppressing the spread of less-useful traits.

Dr. Thompson dabbled with computer circuits in order to determine whether survival-of-the-fittest principles might provide hints for improved microchip designs. As a test bed, he procured a special type of chip called a Field-Programmable Gate Array (FPGA) whose internal logic can be completely rewritten as opposed to the fixed design of normal chips. This flexibility results in a circuit whose operation is hot and slow compared to conventional counterparts, but it allows a single chip to become a modem, a voice-recognition unit, an audio processor, or just about any other computer component. All one must do is load the appropriate configuration.

The informatics researcher began his experiment by selecting a straightforward task for the chip to complete: he decided that it must reliably differentiate between two particular audio tones. A traditional sound processor with its hundreds of thousands of pre-programmed logic blocks would have no trouble filling such a request, but Thompson wanted to ensure that his hardware evolved a novel solution. To that end, he employed a chip only ten cells wide and ten cells across —a mere 100 logic gates. He also strayed from convention by omitting the system clock, thereby stripping the chip of its ability to synchronize its digital resources in the traditional way.

He cooked up a batch of primordial data-soup by generating fifty random blobs of ones and zeros. One by one his computer loaded these digital genomes into the FPGA chip, played the two distinct audio tones, and rated each genome's fitness according to how closely its output satisfied pre-set criteria. Unsurprisingly, none of the initial randomized configuration programs came anywhere close. Even the top performers were so profoundly inadequate that the computer had to choose its favorites based on tiny nuances. The genetic algorithm eliminated the worst of the bunch, and the best were allowed to mingle their virtual DNA by swapping fragments of source code with their partners. Occasional mutations were introduced into the fruit of their digital loins when the control program randomly changed a one or a zero here and there.

For the first hundred generations or so, there were few indications that the circuit-spawn were any improvement over their random-blob ancestors. But soon the chip began to show some encouraging twitches. By generation #220 the FPGA was essentially mimicking the input it received, a reaction which was a far cry from the desired result but evidence of progress nonetheless. The chip's performance improved in minuscule increments as the non-stop electronic orgy produced a parade of increasingly competent offspring. Around generation #650, the chip had developed some sensitivity to the 1kHz waveform, and by generation #1,400 its success rate in identifying either tone had increased to more than 50%.

Finally, after just over 4,000 generations, test system settled upon the best program. When Dr. Thompson played the 1kHz tone, the microchip unfailingly reacted by decreasing its power output to zero volts. When he played the 10kHz tone, the output jumped up to five volts. He pushed the chip even farther by requiring it to react to vocal "stop" and "go" commands, a task it met with a few hundred more generations of evolution. As predicted, the principle of natural selection could successfully produce specialized circuits using a fraction of the resources a human would have required. And no one had the foggiest notion how it worked.

Dr. Thompson peered inside his perfect offspring to gain insight into its methods, but what he found inside was baffling. The plucky chip was utilizing only thirty-seven of its one hundred logic gates, and most of them were arranged in a curious collection of feedback loops. Five individual logic cells were functionally disconnected from the rest —with no pathways that would allow them to influence the output— yet when the researcher disabled any one of them the chip lost its ability to discriminate the tones. Furthermore, the final program did not work reliably when it was loaded onto other FPGAs of the same type.

It seems that evolution had not merely selected the best code for the task, it had also advocated those programs which took advantage of the electromagnetic quirks of that specific microchip environment. The five separate logic cells were clearly crucial to the chip's operation, but they were interacting with the main circuitry through some unorthodox method —most likely via the subtle magnetic fields that are created when electrons flow through circuitry, an effect known as magnetic flux. There was also evidence that the circuit was not relying solely on the transistors' absolute ON and OFF positions like a typical chip; it was capitalizing upon analogue shades of gray along with the digital black and white.

Today, researchers are just beginning to explore the real-world potential of evolving circuitry. Engineers are experimenting with rudimentary adaptive hardware systems which marry evolvable chips to conventional equipment. Such hybrids quickly adapt to new demands by constantly evolving and adjusting their control code. The space exploration industry is intrigued by the technology —an evolving system could dynamically reprogram itself to avoid any circuits damaged by radiation, reducing the need for heavy shielding and redundant systems. Similarly, researchers speculate that robots might one day use evolution-inspired systems to quickly adapt to unforeseen obstacles in their environment.

Modern supercomputers are also contributing to artificial evolution, applying their massive processing power to develop simulated prototypes. The initial designs are thoroughly tested within carefully crafted virtual environments, and the best candidates are used to breed successive batches until a satisfactory solution has evolved. These last-generation designs are then fabricated and tested in the real world. NASA recently used this approach to produce the antenna for a spacegoing vessel, resulting in flamboyant-yet-effective shapes that vaguely resemble organic lifeforms —unlike anything an engineer would design without the benefit of mood-altering drugs. Scientists hope to eventually use genetic algorithms to improve complex devices such as motors and rockets, but progress is dependent upon the development of extremely accurate simulations.


The two best antenna designs produced by NASA's artificial evolution software

These evolutionary computer systems may almost appear to demonstrate a kind of sentience as they dispense graceful solutions to complex problems. But this apparent intelligence is an illusion caused by the fact that the overwhelming majority of design variations tested by the system —most of them appallingly unfit for the task— are never revealed. According to current understanding, even the most advanced microchips fall far short of the resources necessary to host legitimate intelligence. On the other hand, at one time many engineers might have insisted that it's impossible to train an unclocked 10x10 FPGA to distinguish between two distinct audio tones.

There is also an ethical conundrum regarding the notion that human lives may one day depend upon these incomprehensible systems. There is concern that a dormant "gene" in a medical system or flight control program might express itself without warning, sending the mutant software on an unpredictable rampage. Similarly, poorly defined criteria might allow a self-adapting system to explore dangerous options in its single-minded thrust towards efficiency, placing human lives in peril. Only time and testing will determine whether these risks can be mitigated. ;)

If evolvable hardware passes muster, the Sussex circuits may pave the way for a new kind of computing. Given a sufficiently well-endowed Field-Programmable Gate Array and a few thousand exchanges of genetic material, there are few computational roles that these young and flexible microchips will be unable to satisfy. While today's computers politely use programmed instructions to solve predictable problems, these adaptable alternatives may one day strip away such limits and lay bare the elegant solutions that the human mind is reluctant —or powerless— to conceive on its own.

Written by Alan Bellows, posted on 27 June 2007. Alan is the founder/designer/head writer/managing editor of Damn Interesting.

Después de 4.100 generaciones el Dr. Adrian Thompson se encontró con que tenía delante un FGPA capaz de distinguir la palabra "stop" de la palabra "go", que aparentemente utilizaba únicamente 37 puertas lógicas de las 100 de que disponía y en el que la mayoría de las puertas lógicas estaban interconectadas formando bucles de realimentación aparte de otras cinco puertas lógicas que, en principio, estaban totalmente desconectadas de las anteriores pero que, sorprendentemente, provocaban que el diseño dejase de funcionar si se deshabilitaba cualquiera de ellas.

Un ejemplo en el que se logra crear "inteligencia" (por supuesto muy limitada, pero conozco cucarachas que no responden ante un "stop" y un "go", igual es que no saben inglés... ;)) sin una programación previa y en donde, como ocurre con los seres vivos, el resultado final es el resultado de seguir un proceso de "ensayo, error" durante unas cuantas miles de generaciones.


Muchas gracias y un saludo a todos por contribuir al debate.
Los algoritmos genéticos como el usado para la antena son algo que entiendo bien: tuve que trabajar con ellos en varias ocasiones. Matemáticamente son una "búsqueda semialeatoria de máximos locales en una función". Esa función es la función de "fitness" que evalua la idoneidad de cada uno de los "individuos" (en este caso modelos de antenas).

Al final no deja de ser un método de fuerza bruta dirigida, y con resultados buenos y rápidos, siempre que seas capaz de hacer una función de fitness adecuada. El algoritmo en sí es una chorrada muy grande de hacer. Toda la complejidad recae en la "función de fitness", una función que evalúa numéricamente la idoneidad de cada uno de las combinaciones de "genes" (interprétese en sentido amplísimo, ya que excepto en lo evolutivo no tiene nada que ver con la biología).

En el caso de las antenas, el verdadero mérito está en haber hecho el simulador que permite evaluar las antenas, que es el que le dice al algoritmo cual es la calidad de las antenas que el algoritmo "inventa" a base de probar combinaciones de "genes" (pongo este componente a esta altura, retuerzo esto allá...). Si se tiene un simulador suficientemente bueno, esto se puede usar para multitud de cosas: hallar la mejor iluminación para una habitación, hallar la mejor colocación de libros en una estantería, o cualquier otra cosa que sea buscar la mejor configuración de algo.

Vamos, que no es magia, es una utilización ingeniosa de la capacidad de cálculo. Eso sí, no vale para cualquier tipo de problema, porque ante determinadas formas de la función de fitness puede tender a converger en lugares poco convenientes (dando un resultado malo), o no encontrar una solución suficientemente buena (dando resultados básicamente aleatorios).

Lo que sí que es fascinante es la "programación genética", en la que se utiliza el mismo enfoque descrito arriba, pero con el código de un programa, de tal forma que se espera que evolucione hasta que sea capaz de satisfacer una serie de soluciones. https://en.wikipedia.org/wiki/Genetic_programming

El problema de la técnica es que se va de madre computacionalmente muy rápido (vamos que consume recursos a cholón), pero es interesante de cojones.

Por cierto, si tenéis curiosidad por estos temas, echad un ojo a cosas de vida artificial. En su día hice con unos compañeros un simulador de vida artificial, con células que tenían un código que iba mutando al reproducirse, y que iban variando el comportamiento. Las que tenían "mejor" código para comer y evitar ser comidas (y por tanto mejor comportamiento) acababan sobreviviendo y era curioso verlas moverse por la pantalla haciendo trayectorias de todo tipo.

Lo que dice el artículo es básicamente lo que le intentaba explicar a Starkiller. Determinados sistemas funcionan, pero no necesariamente tiene que tener un modelo que podamos entender y mucho menos encajar en nuestro rígido paradigma de computación digital. En mi opinión la inteligencia biológica tiene mucho de esto y probablemente los insectos y otros animales simples funcionen de forma similar.
« última modificación: Abril 01, 2014, 02:21:42 am por pollo »

Cadavre Exquis

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 19584
  • -Recibidas: 43872
  • Mensajes: 9074
  • Nivel: 543
  • Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.Cadavre Exquis Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #539 en: Abril 01, 2014, 07:50:35 am »
Me refiero a cosas como que cuando entrenas una red neuronal, los pesos que tiene como resultado del entrenamiento no puedes interpretarlos de ninguna forma que te permita entender porqué funciona como funciona (si te la sueltan sin decirte nada). Tú puedes ver un programa y figurarte lo que hace. Lo que no puedes es ver los pesos de una red neuronal y saber para qué sirve.

Cuando el sistema es inabarcable o funciona de forma que la lógica es indirecta, como en este caso, no puedes establecer por qué falla en el caso de que falle.

No es posible depurar o mejorar el entrenamiento de un sistema de aprendizaje de este tipo a base de mirar el estado, porque ese estado no representa nada que podamos entender de forma directa (no tiene un modelo conceptualizable, mientras que el mecanismo sobre el que se sustenta sí).

De hecho el problema de hacer ingeniería inversa con nuestro cerebro es exactamente ese. Podemos entender cómo funciona una neurona. Es extremadamente difícil saber cómo funciona cada una de ellas de forma conjuntada y de qué forma esa orquestación produce resultados, o almacena recuerdos.

La alta complejidad es un impedimiento, y no siempre se puede usar fuerza bruta. Por eso, aunque sepamos una cantidad inmensa de detalles sobre la física newtoniana, es extremadamente difícil hacer por ejemplo un modelo del clima planetario: al final siempre se te escapan cosas, porque no puedes tenerlo todo en cuenta, y cualquier detalle que falte puede ser extremadamente importante.

Pollo, usted mismo está afirmando que disponemos de la capacidad de crear software capaz de ofrecer resultados que no están "hardcodeados" en código.

Creo que empiezo a entender cual es el problema cuando usted afirma que las IAs más sofisticadas que existen actualmente son meras calculadoras. Pienso que usted establece como requisito el que seamos capaces de crear una IA que funcione de forma determinista y cuyo estado sea fácilmente predecible en base al algoritmo que se utilice y los datos de entrada.

El problema es que eso es precisamente una calculadora, un sistema muy sencillo y predecible con el que los programadores nos sentimos muy a gusto ya que podemos entender como funciona en su totalidad simplemente leyendo el código fuente... pero me temo que, para crear una IA, esa vía no nos llevaría muy lejos

Durante el debate se ha hablado en varias ocasiones sobre el hecho de que, a pesar de que podemos crear una simulación artificial de una o varias neuronas, todavía nos es imposible simular un número suficientemente grande de ellas como para "ver" como funcionan en conjunto. ¿No cree que los cerebros biológicos están explotando precisamente esa "complejidad" que usted ve en las redes neuronales y que, por el hecho de no poder aprehenderla, usted considera que "no es válida" para crear una IA?

Yo creo que el camino es exactamente ese, solo cuando seamos capaces de crear sistemas lo suficientemente complejos como para que no se comporten de forma determinista seremos capaces de avanzar significativamente en esta rama de la computación. Con lo de que "no se comporten de forma determinista" no estoy diciendo de ninguna manera que tengan que violar ninguna ley de la física, es, simplemente, que el "estado" del sistema es tan complejo que deja de ser un simple algoritmo y "unos cuantos datos" y pasa a ser un todo formado tanto por el algoritmo como por los pesos concretos de su red neuronal y, si me apura, los datos almacenados en un sustrato persistente durante la fase de aprendizaje; lo que viene a ser -simplificando mucho- un cerebro, vamos :D

La diferencia respecto a un cerebro es que, una vez que una red neuronal ha sido entrenada y arroja los resultados esperados, es factible replicarla en otro hardware equivalente y obtener más copias funcionales de la misma sin tener que pasar de nuevo por el proceso de aprendizaje (cosa que, actualmente, y me da que por muchos años, estará muy lejos de poder hacerse con algo tan complejo como un cerebro).

Un saludo a todos :)

Tags: 21 horas 
 


SimplePortal 2.3.3 © 2008-2010, SimplePortal