Los administradores de TransicionEstructural no se responsabilizan de las opiniones vertidas por los usuarios del foro. Cada usuario asume la responsabilidad de los comentarios publicados.
0 Usuarios y 5 Visitantes están viendo este tema.
Lo comento porque todavía hay mucha gente que piensa que Deep Blue era inteligente, cuando en realidad no era más que una calculadora bestia de jugadas de ajedrez, ya que no se necesita inteligencia cuando tienes fuera bruta de cálculo, bases de datos de jugadas de maestros y gigantescas cantidades de memoria infalible (y básicamente eso es lo que hace la mayoría de IA hoy día). Los inteligentes eran sus programadores, en todo caso. Kasparov no ganaba sus partidas por que calculase millones de jugadas por segundo, ya que funcionamos de una forma fundamentalmente diferente.
Recordemos que los algoritmos los hacen personas. Cualquiera que haya programado sabe que incluso en cosas sencillas hay multitud de formas de hacerlo mal. Si encima entramos en terrenos poco concretos, o subjetivos, opinables o con multitud de detalles, como es la economía (o la medicina), me parece que dejar las decisiones a un algoritmo es como dejárselos al azar. O en este caso, a una recua de ladrones HDLGP.No sé qué misticismo hay alrededor de los ordenadores (siendo yo mismo del ramo), que extrapolamos su capacidad de resolver sumas sin equivocarse a absolutamente todo lo demás. Hay un error fundamental en eso.
¿Dónde está entonces el error de diseño, cuando se dice :--"faltará trabajo" o "la mitad del trabajo sobrará"?Y es curioso que la dos expresiones, incompatibles en sus enunciados, signifiquen lo mismo.
No entiendo la pregunta, pues la respuesta me parece totalmente evidente, y por tanto presumo otra respuesta más compleja-Todo algoritmo noventero fue diseñado e implementado cuando la idea de que faltase trabajo era absolutamente ajena a cualquier mente. Tengamos en cuenta que hoy aún lo es, para el 90%.
Lo que está sucediendo es que nos están sometiendo a un proceso de *saqueo* CALCADO, a los procesos neoliberales que practicaron con latinoamérica con la excusa de la "crisis de la deuda" desde los 70, 80 y 90
Wander ¿y la intuición?Quiero decir ¿cómo se conceptúa dentro de un modelo matemático (de conceptuarse)?Cuando lo del Deep Blue escuché que la IA carecía de ese conocimiento "irracional", sin embargo hubo quien sostuvo que la intuición estaba relacionada con la experiencia y por tanto al catalogarse como conocimiento "racional" podría aplicarse a las máquinas.Lo comento porque los amateur que hemos practicado el ajedrez sabemos que llegados a media partida y aún basándonos en movimientos técnicos (de apoyo entre fichas, artillería en el centro del tablero, etc) se dan movimientos intuitivos que (a priori) no obedecen a ninguna lógica.
Cita de: Маркс en Marzo 31, 2014, 10:50:30 amWander ¿y la intuición?Quiero decir ¿cómo se conceptúa dentro de un modelo matemático (de conceptuarse)?Cuando lo del Deep Blue escuché que la IA carecía de ese conocimiento "irracional", sin embargo hubo quien sostuvo que la intuición estaba relacionada con la experiencia y por tanto al catalogarse como conocimiento "racional" podría aplicarse a las máquinas.Lo comento porque los amateur que hemos practicado el ajedrez sabemos que llegados a media partida y aún basándonos en movimientos técnicos (de apoyo entre fichas, artillería en el centro del tablero, etc) se dan movimientos intuitivos que (a priori) no obedecen a ninguna lógica.La intuición es un cálculo difuso que realiza nuestro cerebro en base a la experiencia y a la cosmovisión del mismo; y del cual solo nos transmite unos resultados también difusos, que se traducen en una "sensación" o "corazonada". El término intuición no tiene sentido en relación a inteligencia, solo a consciencia. Una IA puramente racional tendría los cálculos que nosotros denominamos intuiciones (Cálculos difusos extrapolados de modelos lógicos incompletos), pero no los interpretaria como "racionales" o "irracionales", simplemente, como lo que son.si además, quisieramos que esa IA simulara una consciencia, entonces en su programación se podrían representar dichos cálculos como una "intuición". Eso es todo.
@PolloLeyendo sus respuestas tengo la sensación de que la principal confusión aquí (como, por otra parte, suele ocurrir en la mayoría de las ocasiones en las que se habla de este tema) es el llegar a un consenso sobre la definición del concepto "inteligencia" (sea o no artificial).Cita de: PolloLo comento porque todavía hay mucha gente que piensa que Deep Blue era inteligente, cuando en realidad no era más que una calculadora bestia de jugadas de ajedrez, ya que no se necesita inteligencia cuando tienes fuera bruta de cálculo, bases de datos de jugadas de maestros y gigantescas cantidades de memoria infalible (y básicamente eso es lo que hace la mayoría de IA hoy día). Los inteligentes eran sus programadores, en todo caso. Kasparov no ganaba sus partidas por que calculase millones de jugadas por segundo, ya que funcionamos de una forma fundamentalmente diferente.Cita de: PolloRecordemos que los algoritmos los hacen personas. Cualquiera que haya programado sabe que incluso en cosas sencillas hay multitud de formas de hacerlo mal. Si encima entramos en terrenos poco concretos, o subjetivos, opinables o con multitud de detalles, como es la economía (o la medicina), me parece que dejar las decisiones a un algoritmo es como dejárselos al azar. O en este caso, a una recua de ladrones HDLGP.No sé qué misticismo hay alrededor de los ordenadores (siendo yo mismo del ramo), que extrapolamos su capacidad de resolver sumas sin equivocarse a absolutamente todo lo demás. Hay un error fundamental en eso.Supongo que un servidor, que lleva programando (como creo que es el caso de otros muchos foreros) desde los tiempos del Z80, algo del tema también sabemos Efectivamente, los ordenadores son máquinas que se limitan a ejecutar algoritmos y, estos, serán tan "inteligentes" como el o los programadores que los hayan programado.Y una vez, llegado a un punto en común, creo que ahora sí que podemos dar comienzo al verdadero debate Estoy con usted en que Deep Blue no era un programa "inteligente" pero ello implicaría que si un programa es capaz de ganar al ajedrez a un humano, el acto de jugar al ajedrez no debería considerarse "algo específico de los seres inteligentes".Desde que se empezó a hablar de las IAs, este ha sido siempre el punto clave... ¿qué es la inteligencia? ¿Se puede considerar inteligente una máquina capaz de ganar al ajedrez el mejor jugador del mundo? Si bien es cierto que en esos años (1996-1997) la cosa está muy igualada, supongo que nadie duda de que hoy en día no existe ningún ser humano capaz de vencer al ajedrez a un ordenador "más o menos potente" programado específicamente para ello hasta el punto en el que el propio Kasparov ha creado una modalidad de ajedrez llamada Advanced Chess consistente en que, la partida, se juega entre dos humanos asistidos por ordenadores, lo cual nos llevaría a otra cuestión, ciertamente más relacionada con "El fin del trabajo" que lo que estamos tratando ahora (básicamente sobre las ventajas competitivas ofrecidas por aquellos "equipos de trabajo" formados por humanos y máquinas en las que unos y otros se complementan mutuamente supliendo cada una las debilidades del otro).Así que, después de todo, quizás tengamos que concluir que jugar al ajedrez no es algo que demuestre "inteligencia" ¿no? ¿Y lo es, por ejemplo, el acto de traducir un texto de un idioma a otro? Supongo que todos hemos vivido la época del BabelFish o -aunque ya no lo recodemos- de los primeros pinitos que hizo Google con su "Google Translator"; seguro que todos recordaremos que esas traducciones, prácticamente literales, eran tan demenciales que, en la mayoría de los casos, uno se quedaba igual que estaba. Pues bien, comparen lo que había hace tan solo una década con lo que tenemos ahora. No sé si alguna vez habrán probado a traducir una página en chino, japonés o árabe con el Google Translator al inglés (o al español), pero estoy seguro de que si no lo han hecho se quedarán sorprendidos del resultado: traducciones instantáneas y suficientemente buenas como para que el texto resultante sea, en la mayoría de los casos, inteligible. El siguiente paso en este campo lo dió Microsoft hace un par de años cuando mostró un sistema capaz de traducir en tiempo real no un texto sino una conversación del japonés al inlgés.Aunque no es cuestión de entrar en detalles, el salto de gigante en los sistemas de traducción automática, se produjo cuando estos dejaron de usar simples diccionarios y comenzaron a utilizar un corpus de traducciones realizadas por humanos. Por poner un ejemplo, en el Parlamento Europeo los documentos han de traducirse a más de veinte idiomas lo que conforma el llamado Europarl Corpus constituyendo una fuente muy importante para los nuevos sistemas de traducción automática. Efectivamente eso resta algo de la "magia" a las traducciones automáticas, pero la cuestión es que el resultado es impresionante y estoy seguro de que muchos traductores profesionales están realmente preocupados al respecto Aplicando el mismo razonamiento que antes, deberemos concluir que traducir tampoco es algo exclusivo de los seres inteligentes ¿no es cierto?¿Y qué ocurre con el reconocimiento del habla? ¿Alguien recuerda los primeros años en los que hicieron su aparición paquetes de software como el Dragon Natural Speaking o el Via Voice de IBM? No creo que nadie ponga en duda que desde esas versiones primitivas hasta los sistemas actuales, como Siri, la mejora ha sido más que notable.¿Y qué pasa con la habilidad para conducir un coche? ¿Es el software que controla los famosos coches autónomos de Google "inteligente"?Cada vez que se ha conseguido automatizar una tarea que se consideraba "del dominio exclusivo de la inteligencia humana" la solución siempre ha sido la misma, se mira hacia otro lado y se afirma que "jugar al ajedrez, traducir, reconocer la voz, conducir un coche, etc., etc. no son realmente tareas que demuestren inteligencia"De hecho, con software como el de Watson (famoso por haber ganado el concurso de Jeopardy hace ahora tres años), estamos ya muy cerca de poder superar la que hasta hace no mucho era la prueba de fuego: el famoso "Test de Turing", y que, aplicando lo comentado arriba, ya se empieza a considerar que no "demostraría" que una máquina capaz de superarlo fuera "realmente inteligente". Como muchos ya sabrán, el próximo "trabajo" de Watson será el diagnóstico médico y, aunque lógicamente la última palabra la tendrá un especialista, no me cabe la menor duda de que será una inestimable ayuda a la hora de realizar los diagnósticos.Como se puede ver, la definición de inteligencia dista mucho de ser algo sencillo (de hecho, de un tiempo a esta parte, se empieza a criticar la utilidad de medidas como el coeficiente intelectual y se empieza a hablar también de inteligencia emocional, inteligencia lingüistico-verbal, ingeligencia espacial, etc.)Así que, aunque comparto parte del punto de vista expresado en esta y en otras ocasiones por usted, discrepo respecto a su afirmación de que los ordenadores siguen siendo meras "calculadoras".Lógicamente los ordenadores no tienen conciencia de sí mismos (un rasgo que creo que sí es, al menos por ahora, algo que nos diferencia de ellos) pero según se van sucediendo los avances, cada vez estoy más convencido de que esa línea que delimita la inteligencia humana de la inteligencia artificial se irá haciendo cada vez más difusa.Al hilo de esto, hace unos días apareció una noticia en la que se hablaba de que la fundación sin ánimo de lucro XPRICE (famosa, sobre todo, por sus proyectos relacionados con la exploración espacial) lanzaba un nuevo reto consistente en diseñar una IA capaz de dar una de las famosas "TED talks". Ciertamente está todavía en una fase muy preliminar y hace falta definir cuales serán las reglas de la competición, pero teniendo en cuenta que llevamos poco más de 60 años de desarrollo en lo que a informática y ordenadores se refiere, yo creo que es algo sobre lo que cabe reflexionar un poco ¿verdad? Y como creo que el "tocho" ha sido ya considerable, dejaré otras reflexiones que se me quedan en el tintero para otra ocasión Saludos y muchas gracias a todos por sus aportaciones y por el sano debate que se respira en estos foros.
Es que no todo lo que se hace en un ordenador tiene que ser formalizable. La lógica difusa esta precisamente para eso. Por ejemplo, a la hora de emular o entender el lenguaje natural, se usan diversas técnicas, a cada cual menos "formal": pesos, relaciones dinámicas, se mete aleatoriedad, etc... Exactamente lo mismo se hace con los intentos de conceptualización (Que en su formato mas básico es intentar estructurar la información desestructurada). Al final te queda una mezcla de cosas un tanto huevofritística desde un punto de vista de matemática o lógica "formal", que en teoría no debería funcionar, pero lo hace, a un cierto (muy bajo) nivel.
Yo no sé definir inteligencia, pero sí que sé que a un crío en el mismo día le explicas cómo se juega al ajedrez, cómo se trabaja con barro y cómo caminar a la pata coja. Y lo hará. Mal o bien, pero lo hará.Ahora coge un programa de, por ejemplo traducción, o de jugar a las damas, o el Google car (tanto me da), o a Asimo o a Watson, o cualquiera de nuestros "avanzadísimos" sistemas supuestamente inteligentes y haz lo mismo. Confundimos "algoritmo avanzado" con inteligente.
Un sistema informático interrelacionará todos los conceptos que se le programe para interrelacionar, ni más ni menos.