Los administradores de TransicionEstructural no se responsabilizan de las opiniones vertidas por los usuarios del foro. Cada usuario asume la responsabilidad de los comentarios publicados.
0 Usuarios y 2 Visitantes están viendo este tema.
Cita de: pollo en Abril 01, 2014, 01:46:19 amMe refiero a cosas como que cuando entrenas una red neuronal, los pesos que tiene como resultado del entrenamiento no puedes interpretarlos de ninguna forma que te permita entender porqué funciona como funciona (si te la sueltan sin decirte nada). Tú puedes ver un programa y figurarte lo que hace. Lo que no puedes es ver los pesos de una red neuronal y saber para qué sirve. Cuando el sistema es inabarcable o funciona de forma que la lógica es indirecta, como en este caso, no puedes establecer por qué falla en el caso de que falle.No es posible depurar o mejorar el entrenamiento de un sistema de aprendizaje de este tipo a base de mirar el estado, porque ese estado no representa nada que podamos entender de forma directa (no tiene un modelo conceptualizable, mientras que el mecanismo sobre el que se sustenta sí). De hecho el problema de hacer ingeniería inversa con nuestro cerebro es exactamente ese. Podemos entender cómo funciona una neurona. Es extremadamente difícil saber cómo funciona cada una de ellas de forma conjuntada y de qué forma esa orquestación produce resultados, o almacena recuerdos.La alta complejidad es un impedimiento, y no siempre se puede usar fuerza bruta. Por eso, aunque sepamos una cantidad inmensa de detalles sobre la física newtoniana, es extremadamente difícil hacer por ejemplo un modelo del clima planetario: al final siempre se te escapan cosas, porque no puedes tenerlo todo en cuenta, y cualquier detalle que falte puede ser extremadamente importante.Pollo, usted mismo está afirmando que disponemos de la capacidad de crear software capaz de ofrecer resultados que no están "hardcodeados" en código.Creo que empiezo a entender cual es el problema cuando usted afirma que las IAs más sofisticadas que existen actualmente son meras calculadoras. Pienso que usted establece como requisito el que seamos capaces de crear una IA que funcione de forma determinista y cuyo estado sea fácilmente predecible en base al algoritmo que se utilice y los datos de entrada.El problema es que eso es precisamente una calculadora, un sistema muy sencillo y predecible con el que los programadores nos sentimos muy a gusto ya que podemos entender como funciona en su totalidad simplemente leyendo el código fuente... pero me temo que, para crear una IA, esa vía no nos llevaría muy lejosDurante el debate se ha hablado en varias ocasiones sobre el hecho de que, a pesar de que podemos crear una simulación artificial de una o varias neuronas, todavía nos es imposible simular un número suficientemente grande de ellas como para "ver" como funcionan en conjunto. ¿No cree que los cerebros biológicos están explotando precisamente esa "complejidad" que usted ve en las redes neuronales y que, por el hecho de no poder aprehenderla, usted considera que "no es válida" para crear una IA?Yo creo que el camino es exactamente ese, solo cuando seamos capaces de crear sistemas lo suficientemente complejos como para que no se comporten de forma determinista seremos capaces de avanzar significativamente en esta rama de la computación. Con lo de que "no se comporten de forma determinista" no estoy diciendo de ninguna manera que tengan que violar ninguna ley de la física, es, simplemente, que el "estado" del sistema es tan complejo que deja de ser un simple algoritmo y "unos cuantos datos" y pasa a ser un todo formado tanto por el algoritmo como por los pesos concretos de su red neuronal y, si me apura, los datos almacenados en un sustrato persistente durante la fase de aprendizaje; lo que viene a ser -simplificando mucho- un cerebro, vamos La diferencia respecto a un cerebro es que, una vez que una red neuronal ha sido entrenada y arroja los resultados esperados, es factible replicarla en otro hardware equivalente y obtener más copias funcionales de la misma sin tener que pasar de nuevo por el proceso de aprendizaje (cosa que, actualmente, y me da que por muchos años, estará muy lejos de poder hacerse con algo tan complejo como un cerebro).Un saludo a todos
Me refiero a cosas como que cuando entrenas una red neuronal, los pesos que tiene como resultado del entrenamiento no puedes interpretarlos de ninguna forma que te permita entender porqué funciona como funciona (si te la sueltan sin decirte nada). Tú puedes ver un programa y figurarte lo que hace. Lo que no puedes es ver los pesos de una red neuronal y saber para qué sirve. Cuando el sistema es inabarcable o funciona de forma que la lógica es indirecta, como en este caso, no puedes establecer por qué falla en el caso de que falle.No es posible depurar o mejorar el entrenamiento de un sistema de aprendizaje de este tipo a base de mirar el estado, porque ese estado no representa nada que podamos entender de forma directa (no tiene un modelo conceptualizable, mientras que el mecanismo sobre el que se sustenta sí). De hecho el problema de hacer ingeniería inversa con nuestro cerebro es exactamente ese. Podemos entender cómo funciona una neurona. Es extremadamente difícil saber cómo funciona cada una de ellas de forma conjuntada y de qué forma esa orquestación produce resultados, o almacena recuerdos.La alta complejidad es un impedimiento, y no siempre se puede usar fuerza bruta. Por eso, aunque sepamos una cantidad inmensa de detalles sobre la física newtoniana, es extremadamente difícil hacer por ejemplo un modelo del clima planetario: al final siempre se te escapan cosas, porque no puedes tenerlo todo en cuenta, y cualquier detalle que falte puede ser extremadamente importante.
Cita de: Cadavre Exquis en Abril 01, 2014, 07:50:35 amCita de: pollo en Abril 01, 2014, 01:46:19 amMe refiero a cosas como que cuando entrenas una red neuronal, los pesos que tiene como resultado del entrenamiento no puedes interpretarlos de ninguna forma que te permita entender porqué funciona como funciona (si te la sueltan sin decirte nada). Tú puedes ver un programa y figurarte lo que hace. Lo que no puedes es ver los pesos de una red neuronal y saber para qué sirve. Cuando el sistema es inabarcable o funciona de forma que la lógica es indirecta, como en este caso, no puedes establecer por qué falla en el caso de que falle.No es posible depurar o mejorar el entrenamiento de un sistema de aprendizaje de este tipo a base de mirar el estado, porque ese estado no representa nada que podamos entender de forma directa (no tiene un modelo conceptualizable, mientras que el mecanismo sobre el que se sustenta sí). De hecho el problema de hacer ingeniería inversa con nuestro cerebro es exactamente ese. Podemos entender cómo funciona una neurona. Es extremadamente difícil saber cómo funciona cada una de ellas de forma conjuntada y de qué forma esa orquestación produce resultados, o almacena recuerdos.La alta complejidad es un impedimiento, y no siempre se puede usar fuerza bruta. Por eso, aunque sepamos una cantidad inmensa de detalles sobre la física newtoniana, es extremadamente difícil hacer por ejemplo un modelo del clima planetario: al final siempre se te escapan cosas, porque no puedes tenerlo todo en cuenta, y cualquier detalle que falte puede ser extremadamente importante.Pollo, usted mismo está afirmando que disponemos de la capacidad de crear software capaz de ofrecer resultados que no están "hardcodeados" en código.Creo que empiezo a entender cual es el problema cuando usted afirma que las IAs más sofisticadas que existen actualmente son meras calculadoras. Pienso que usted establece como requisito el que seamos capaces de crear una IA que funcione de forma determinista y cuyo estado sea fácilmente predecible en base al algoritmo que se utilice y los datos de entrada.El problema es que eso es precisamente una calculadora, un sistema muy sencillo y predecible con el que los programadores nos sentimos muy a gusto ya que podemos entender como funciona en su totalidad simplemente leyendo el código fuente... pero me temo que, para crear una IA, esa vía no nos llevaría muy lejosDurante el debate se ha hablado en varias ocasiones sobre el hecho de que, a pesar de que podemos crear una simulación artificial de una o varias neuronas, todavía nos es imposible simular un número suficientemente grande de ellas como para "ver" como funcionan en conjunto. ¿No cree que los cerebros biológicos están explotando precisamente esa "complejidad" que usted ve en las redes neuronales y que, por el hecho de no poder aprehenderla, usted considera que "no es válida" para crear una IA?Yo creo que el camino es exactamente ese, solo cuando seamos capaces de crear sistemas lo suficientemente complejos como para que no se comporten de forma determinista seremos capaces de avanzar significativamente en esta rama de la computación. Con lo de que "no se comporten de forma determinista" no estoy diciendo de ninguna manera que tengan que violar ninguna ley de la física, es, simplemente, que el "estado" del sistema es tan complejo que deja de ser un simple algoritmo y "unos cuantos datos" y pasa a ser un todo formado tanto por el algoritmo como por los pesos concretos de su red neuronal y, si me apura, los datos almacenados en un sustrato persistente durante la fase de aprendizaje; lo que viene a ser -simplificando mucho- un cerebro, vamos La diferencia respecto a un cerebro es que, una vez que una red neuronal ha sido entrenada y arroja los resultados esperados, es factible replicarla en otro hardware equivalente y obtener más copias funcionales de la misma sin tener que pasar de nuevo por el proceso de aprendizaje (cosa que, actualmente, y me da que por muchos años, estará muy lejos de poder hacerse con algo tan complejo como un cerebro).Un saludo a todos No he negado que se pueda emular una inteligencia con ese tipo de técnicas. Lo que sí que afirmo es que si se quiere emular una inteligencia con el paradigma de un programa (esto es un algoritmo fijo con una lista de instrucciones mas o menos complejas) en una máquina digital, no se obtendrán resultados más allá de los que ya se han obtenido, porque no es posible crear algo inteligente sólo a base de reglas lógicas y fijas al menos con lo poco o nada que sabemos al respecto.En todo caso lo que habría que hacer es emular un sistema similar al ya conocido aprovechando ese sistema de reglas lógicas. De hecho este tipo de investigaciones ya se están haciendo hace tiempo, si no recuerdo mal, en IBM. Creo que ya tienen emulada una columna cortical del cerebro de una rata. Otra cosa es que puedan entender la complejidad o que no se les haya escapado algún detalle importante (en mi opinión, la química del cuerpo o cosas como la motivación y el instinto de supervivencia son imprescindibles para que un cerebro funcione,no creo que su emulación sea distinta).El problema de este tipo de simulaciones, es que, al igual que con las redes neuronales, es muy posible que se pueda hacer algo que responda de forma inteligente, no tanto así saber cómo o por qué lo hace (como el FPGA del artículo, que funcionaba, pero a nadie se le podría haber ocurrido porque no sigue ninguna técnica de construcción, sino que va probando cosas a ver cual funciona). Es cierto que una IA así sería replicable, aunque tengo mis dudas sobre si sería la única cuestión que habría que tener en cuenta.Otro requisito obviado para que una máquina pueda ser inteligente, al menos en mi opinión, es que tiene que hacerse un modelo mental de la realidad, y eso no puede hacerse a base de datos registrados en una enciclopedia (al igual que no puedes hacer que un niño aprenda a andar en bicicleta sólo explicándole la teoría): la inteligencia en cuestión tendría que pasar por un proceso similar al de nuestra infancia, aprendiendo qué y qué no funciona, adquiriendo una cultura y básicamente construyendo un modelo mental que luego le permita tomar decisiones complejas. Sin eso dudo muchísimo que se pueda hablar de inteligencia, al igual que no le atribuimos inteligencia a un bebé por mucho cerebro humano que tenga.
En los infinitos debates sobre el lenguaje, creo (seguro) que fue Chomsky el que zanjo el debate demostrando que el lenguaje humano no se puede reducir a un cumulo de determinaciones fonéticas, gramaticales, lexicales (=hardware, algoritmo, interfaz)Para llegar a tener un leguaje con el que los humanos se oomunican, se requiere de algo más que hardware, algoritmo o interfaz:La creatividad.Para decirlo de forma sencilla: el ser humano no aprende un lenguaje: lo crea
Lo que está sucediendo es que nos están sometiendo a un proceso de *saqueo* CALCADO, a los procesos neoliberales que practicaron con latinoamérica con la excusa de la "crisis de la deuda" desde los 70, 80 y 90
Es urgente que vaya apareciendo el robot capaz de hacer las camas como la abuela, o de preparar sus ricas rosquillas de nuez moscada o dejar las camisas impecablemente planchadas porque corremos el riesgo de encontrarnos con lo inimaginable hace unos años: la automatización cuasi-total de oficinas, profesiones jurídicas, administrativas, manufactureras, de transporte, de supervisión, sanitarias, consultoría (esto con un generador aleatorio de .ppt en el 80% de los casos se logra), gestión de empresas, etc, mientras que las antaño desvalorizadas tareas domésticas o de servicios a personas incapacitadas, niños, etc, se convertirían en las únicas en requerir acción humana directa (junto con la manufactura, programación, mantenimiento y evolución de los cacharros).En ese caso lo que podría ocurrir, y esto es casi una pesadilla, es que los salarios de esos empleos descendieran mucho más por la presión competitiva ejercida por los neodesempleados-que-no-se-lo-esperaban, y, eso sí, la capacidad agregada de consumo descendería en picado (entonces la rentabilidad del capital también).Parece una broma macabra pero durante demasiado tiempo nos hemos creído eso de la "cualificación" que hace insustituible el factor humano en ciertos trabajos y esto es verdad pero no siempre allí donde creemos (es más, con una combinación de 10% humano-90% máquina seguramente se podría automatizar la Justicia, por ejemplo, y muchas otras tareas "complejísimas" que exigen presencia humana). Un % elevadisimo de los pleitos que morosamente transitan por nuestro caduco sistema judicial son enfrentamientos entre vecinos, impagos de efectos comerciales, reclamaciones tirando a insustanciales y poquito más, nada que no se pueda agrupar y procesar en "lotes" con una mínima supervisión humana.
Es urgente que vaya apareciendo el robot capaz de hacer las camas como la abuela, o de preparar sus ricas rosquillas de nuez moscada o dejar las camisas impecablemente planchadas porque corremos el riesgo de encontrarnos con lo inimaginable hace unos años: la automatización cuasi-total de oficinas, profesiones jurídicas, administrativas, manufactureras, de transporte, de supervisión, sanitarias, consultoría (esto con un generador aleatorio de .ppt en el 80% de los casos se logra), gestión de empresas, etc, mientras que las antaño desvalorizadas tareas domésticas o de servicios a personas incapacitadas, niños, etc, se convertirían en las únicas en requerir acción humana directa (junto con la manufactura, programación, mantenimiento y evolución de los cacharros).
es la idea más absurda que he oído en mi vida. No sólo porque hace falta ser psicópata, es que ¿de verdad pienasn que saldrá más barato un robot de esos que una persona, habiendo un 50% de paro y siendo tareas que puede hacer cualquiera? Tan absurda económicamente e insana que empiezo a pensar que es uno de esos false flag delirantes que sueltan unos para ridiculizar a los otros.
Cita de: saturno en Abril 08, 2014, 19:07:41 pmEn los infinitos debates sobre el lenguaje, creo (seguro) que fue Chomsky el que zanjo el debate demostrando que el lenguaje humano no se puede reducir a un cumulo de determinaciones fonéticas, gramaticales, lexicales (=hardware, algoritmo, interfaz)Para llegar a tener un leguaje con el que los humanos se oomunican, se requiere de algo más que hardware, algoritmo o interfaz:La creatividad.Para decirlo de forma sencilla: el ser humano no aprende un lenguaje: lo creaEl pensamiento es creativo pero el lenguaje hablado no. Poetas pocos.., de hecho conseguir expresar un todo mediante la comunicación lineal (el pensamiento no lo es) resulta muy complicado, sólo para elegidos, y los que intentamos hacerlo más o menos correctamente tenemos que aferrarnos a las reglas lingüísticas para estructurar medianamente bien lo que queremos expresar (aunque esas reglas no impidan la creatividad).El habla como lenguaje es muy limitado; se puede categorizar un razonamiento basándose en la nada y al revés, se puede perder un debate por goleada aún asistiéndote la razón.Por eso nos encantan los oradores (los buenos). De esto los presocráticos sabían un huevo.Y por eso (porque no es lineal) es mucho más creativa la fotografía, pintura, escultura e incluso la misma música por su variedad tonal. El componente visual genera además de muchísima información un universo de detalles que tan sólo el buen dramaturgo sabe escenificar y componer.Y sí, Chomsky pegó un puñetazo en la mesa a todos los conductistas estructuralistas, pero cuando él habla del lenguaje creativo (inherente al ser humano) se refiere a lo innovador, y sí, por tanto creativo. Pienso que su teoría es brutal por cuanto rompe con el estructuralismo con una formulación sin fisuras, pero aún y con todo sigue siendo un sistema de comunicación acotado.