www.transicionestructural.NET es un nuevo foro, que a partir del 25/06/2012 se ha separado de su homónimo .COM. No se compartirán nuevos mensajes o usuarios a partir de dicho día.
0 Usuarios y 2 Visitantes están viendo este tema.
El código que ejecuta el modelo no tiene gran cosa. Lo relevante y lo que cuesta pasta, conocimientos y tiempo es diseñar y entrenar el modelo, y hacerlo bien.La "base de conocimientos" no es simplemente meterle un corpus de texto y ya está. Hay que saber lo que se hace o puedes caer en una de las numerosas trampas en las que pueden caer estos modelos y que los hacen inútiles (sobreadaptación, GIGO, etc.)Y bueno, una vez que tienes una técnica para seleccionar la información, pasarte unas semanas calculando el modelo en un cluster.El mérito de ChatGPT no es el programa que ejecuta el modelo. Es el modelo. El negocio (al menos hasta que se masifique) es precisamente crearlos.
Entendido, entendido.O no del todo.Mi cuestión es si se puede "sacar" ChatGPT del entorno donde quiera que sea que lo han entrenado o si lo saco de ahí se queda prácticamente en blanco y si lo entreno sobre otro entorno no llegará a ser aparentemente tan listo.Please, entended que no soy informático ni matemático y no sé si me explico bien o hasta que punto digo majaderías.Pongo una analogía. Tengo a un chaval listillo al que hago estudiar un montón de cosas, le doy a conocer a un montón de gente, lo paseo por un montón de barrios y ciudades y lo convierto en lo que lo convierto. Pero si lo llevo a un entorno muy concreto (por ejemplo un despacho de abogados, je, je) sus capacidades "se borran" y entonces lo pongo en contacto con ese mundo pero en ese mundo no puede aprender porque ahí no lo puedo hacer viajar a Estambul o ir al barrio de las 3.000 viviendas a cantar flamenco en los portales.O puesta mi pregunta de otro modo. ¿Es la exposición y aprendizaje a un determinado cuerpo de conocimiento (entre el que se encuentran, qué se yo, los trabajos del rincón del vago) lo que ha hecho al bot lo que es (evidentemente junto con la intención de sus programadores de que de unos resultados de una determinada manera)?. ¿Si lo hago correr y lo entreno sobre otro cuerpo de conocimiento, por ejemplo más específico, limitado, profundo y podado de mierdas podría ocurrir que no funcionase o lo hiciese muy mal?
Cita de: Saturio en Febrero 08, 2023, 10:48:11 am(por poner ejemplos aleatorios no sabrá que un bebé es un ser indefenso o que las cosas caen).No sé si he aclarado dudas o creado más, pero espero al menos haber dado una visión general para entender qué se puede y qué no.Sí, bastante claro. Gracias.La cuestión es que no sabemos con qué o sobre qué han entrenado al bot. Como la búsqueda era dar respuestas en lenguaje human, en ese sentido lo mejor es acceder a cuanto más lenguaje humano mejor, sea bueno o malo (correcto o incorrecto, lógico o ilógico)Además, durante el entrenamiento el bot recibe un "premio" por responder en lenguaje humano inteligible, estructurado y dentro del contexto de la conversación y no por responder correctamente.
(por poner ejemplos aleatorios no sabrá que un bebé es un ser indefenso o que las cosas caen).No sé si he aclarado dudas o creado más, pero espero al menos haber dado una visión general para entender qué se puede y qué no.
Un ejemplo más sencillo y anterior a ChatGTP es cómo usar el análisis de datos para pescar al que evade impuestos.Inspección no puede estar a todo, y si tiene que revisar todo a mano esto sería el paraíso del defraudador. De hecho durante mucho tiempo (y aún hoy) se defraudaba como parte de una estrategia. Calculas qué tan probable es que te pesquen, provisionas, y profit.Un programa jamás, jamás va a poder decidir por sí mismo si hay fraude o no, porque la casuística es gigantesca. Pero se puede aplicar Pareto, porque como en el colegio el que la lía suele ser casi siempre el mismo. Si de repente tus ingresos se triplican, o se cruzan los datos con el catastro o de consumo, y se ve que tienes una casa habitada no declarada, etc, pues salta una alarma.Es decir, se trata de buscar lo que canta más que un canario y se deja pasar el resto. Esto ahorra trabajo. Ahora vienen los peros:Un positivo sólo es una alerta de posible fraude. No es una prueba definitiva. Sirve (o debe servir) para llamar la atención del inspector humano, y que así centre su tiempo en los casos donde es más probable "pescar". Y el resultado debe añadirse al modelo para refinarlo. Como dice pollo, el algoritmo que aplica el conocimiento es la parte menos importante, la más importante es el conocimiento en sí.La guerra entre el policía y el ladrón nunca termina. Lo que vuela por debajo del radar no está necesariamente bien hecho. Es imprescindible que el que hace el papel de poli no use el algoritmo como una excusa para rascarse el badajo. El tiempo que ha quedado libre se tiene que dedicar entre otras cosas a tratar de anticiparse al ladrón. Porque si no, el ladrón aprenderá dónde está el límite para que el chivato automático no cante. Lo que a largo plazo convertiría el algoritmo en papel mojado.Una vez más aparece la idea de que la máquina sólo ahorra trabajo mecánico y repetitivo, no exime de pensar. El currito y la empresa inteligente saben esto, y reservan buena parte del tiempo a usar el cerebro, que está para pensar y no para criar pelo.
Capacidad de conducción autónoma total Todas las funcionalidades del Piloto automático básico y Piloto automático mejorado Control de semáforos y señales de stop (Beta): identifica las señales de stop y los semáforos. Al acercarse a ellos, reduce automáticamente la velocidad del coche hasta detenerlo, siempre bajo su supervisión. Próximamente: Autogiro en vías urbanas
Cita de: Saturio en Febrero 08, 2023, 10:48:11 amEntendido, entendido.O no del todo.Mi cuestión es si se puede "sacar" ChatGPT del entorno donde quiera que sea que lo han entrenado o si lo saco de ahí se queda prácticamente en blanco y si lo entreno sobre otro entorno no llegará a ser aparentemente tan listo.Please, entended que no soy informático ni matemático y no sé si me explico bien o hasta que punto digo majaderías.Pongo una analogía. Tengo a un chaval listillo al que hago estudiar un montón de cosas, le doy a conocer a un montón de gente, lo paseo por un montón de barrios y ciudades y lo convierto en lo que lo convierto. Pero si lo llevo a un entorno muy concreto (por ejemplo un despacho de abogados, je, je) sus capacidades "se borran" y entonces lo pongo en contacto con ese mundo pero en ese mundo no puede aprender porque ahí no lo puedo hacer viajar a Estambul o ir al barrio de las 3.000 viviendas a cantar flamenco en los portales.O puesta mi pregunta de otro modo. ¿Es la exposición y aprendizaje a un determinado cuerpo de conocimiento (entre el que se encuentran, qué se yo, los trabajos del rincón del vago) lo que ha hecho al bot lo que es (evidentemente junto con la intención de sus programadores de que de unos resultados de una determinada manera)?. ¿Si lo hago correr y lo entreno sobre otro cuerpo de conocimiento, por ejemplo más específico, limitado, profundo y podado de mierdas podría ocurrir que no funcionase o lo hiciese muy mal?Resumo el proceso completo de forma muy abstracta para que quede claro a qué me refiero:- Se decide sobre qué entrenamos el modelo. En el caso de ChatGPT es un modelo conversacional. Tiene que proporcionar respuestas lingüísticamente convicentes (no precisas o ciertas).- Se decide un framework (esto serían programas y/o librerías) para el entrenamiento y para la ejecución del modelo.- Se decide la estructura interna del modelo (capas de neuronas, conexión entre ellas, etc.). Esta es una de las partes complicadas y que requiere saber.- Se decide el conjunto de datos. Lo normal es que sea un corpus de información homogénea y fitrada para evitar falsos positivos. Esto no es trivial y requiere también ingenio.- Se entrena al modelo.En principio el método manual es el más factible (se presentan ejemplos a gente y en cada ejemplo se decide si encaja en lo que tiene que reconocer la IA, repetido miles, cientos de miles o millones de veces), pero se han desarrollado técnicas que permiten automatizar parcialmente o totalmente el proceso, o transferir datos de un modelo a otro. Dar con una técnica automatizada puede ser clave (como en el caso de AlphaGo).El entrenamiento lo que hace es ir ajustando pesos (un archivo de números al fin y al cabo) representados en una matriz multidimensional gigantesca. Cada ejemplo del entrenamiento ajusta ligeramente los números de esta matriz, pero no se guarda la información del ejemplo como tal.- Cuando se termina, tienes el "modelo", que no es otra cosa que un archivo con números. Estos números más o menos vienen a representar una función matemática multidimensional (con muchos parámetros) que tiene la particularidad de devolver resultados útiles para nuestro problema, pero los números por sí solos no permiten saber cuál es la información contenida en ellos porque no tienen un formato o estructura conocidos a priori. Sería análogo a preguntarle a alguien qué sumandos había en una suma si el resultado de la suma fue 8.- Este modelo puede utilizarse junto con un programa que lo "consulte", que es lo que nosotros podemos usar con ChatGPT vía web.Como se ve, el proceso es el que es. Una vez entrenado el modelo, responde lo que responde. No se puede a priori utilizar para otra cosa. Lo que sí que puede hacerse es seguir la misma técnica para otro tipo de datos y fijándose en el entrenamiento que primen otros criterios (como podría ser el caso de interpretar textos legales). El problema consiste en que a más capas de abstracción, más entrenamiento hay que hacer, más parámetros en el modelo y más difícil resulta que las respuestas sean de calidad.También hay otros campos de investigación donde se están realizando "transferencias" de conocimiento, es decir, usar modelos junto con otros modelos, a veces para reentrenar, a veces para especializar, etc. Ahí ya desconozco cual es la situación, pero por lo que sé es parcialmente posible con técnicas especiales.Otra posibilidad es entrenar un modelo con otro (redes adversarias), donde un modelo coevoluciona con otro, uno dando respuestas y otro dando feedback a esas respuestas, pero al final todo implica un reentrenamiento, que es la parte costosa del proceso. Hasta donde yo sé una vez entrenado el modelo se queda más o menos como está (se sospecha que ChatGPT utiliza los propios prompts de los usuarios por la web para seguir entrenando, ya que se adapta a respuestas de sesiones anteriores).Además hay otro problema práctico, que es el de cómo meterle a uno de estos modelos un "sentido común", que podría interpretarse como un entrenamiento genérico sobre cómo funciona el mundo en general. Para que cuando te cuenta una historia no mate un personaje para a continuación seguir hablando de lo que hace ese mismo personaje (el modelo sabe que a la muerte le acompañan palabras negativas, de tristeza, rabia, etc. pero ignora por completo las implicaciones de que alguien esté muerto, como por ejemplo que deja de actuar).Con las leyes hay un problema similar, probablemente sea capaz de hacerte buenos resúmenes y de aproximarte sentencias y recursos, pero habría fallos garrafales en la lógica porque esas sentencias también tienen el sentido común de una persona como input (la interpretación que hace el juez por ejemplo), cosa que el modelo no tiene. O dicho de otra forma: no puedes darle a un modelo conocimiento de cómo funciona el mundo sólo con textos legales, por lo que tendrá ceguera a muchas cosas (por poner ejemplos aleatorios no sabrá que un bebé es un ser indefenso o que las cosas caen).No sé si he aclarado dudas o creado más, pero espero al menos haber dado una visión general para entender qué se puede y qué no.
[...] Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.
Cita de: Saturio en Febrero 08, 2023, 15:07:47 pm[...] Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.Igual... Hasta no nos da la gana llegar ahí.
Cita de: sudden and sharp en Febrero 08, 2023, 15:35:26 pmCita de: Saturio en Febrero 08, 2023, 15:07:47 pm[...] Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.Igual... Hasta no nos da la gana llegar ahí.¡Uy que no! El sueño húmedo de cualquier empresario. Tener un HAL que haga TODO y el empresario sólo tiene que pone el cazo.Incluso el sueño húmedo de más un padre (incluyo madre) que pagaría lo que fuera por un HAL que le críe a los hijos (HAL, baña al niño. HAL, deberes. HAL, ya que estás, haz la cena para toda la familia).Interesante paradoja, vivir en un mundo en el que las máquinas hacen todo el trabajo y los seres humanos no hacemos falta.. pero por otro lado, si no hay seres humanos, ¿para qué necesistas hacer todo ese trabajo en primer lugar?
Cita de: el malo en Febrero 08, 2023, 15:49:00 pmCita de: sudden and sharp en Febrero 08, 2023, 15:35:26 pmCita de: Saturio en Febrero 08, 2023, 15:07:47 pm[...] Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.Igual... Hasta no nos da la gana llegar ahí.¡Uy que no! El sueño húmedo de cualquier empresario. Tener un HAL que haga TODO y el empresario sólo tiene que pone el cazo.Incluso el sueño húmedo de más un padre (incluyo madre) que pagaría lo que fuera por un HAL que le críe a los hijos (HAL, baña al niño. HAL, deberes. HAL, ya que estás, haz la cena para toda la familia).Interesante paradoja, vivir en un mundo en el que las máquinas hacen todo el trabajo y los seres humanos no hacemos falta.. pero por otro lado, si no hay seres humanos, ¿para qué necesistas hacer todo ese trabajo en primer lugar?Y ya puestos, ¿porqué no robotizar la política? ¿y las decisiones corporativas? A lo mejor el CEO engominao acaba siendo un pringadete totalmente prescindible...
[...] Si a cualquiera le preguntas si quiere que se desarrolle software que permita avances en la bioquímica a través de cálculos y simulaciones que permitirían diseñar fármacos 1000 veces más efectivos con mucho menos coste y tiempo de desarrollo te diría que sí.¿Quiere usted un modelo que prediga terremotos y dé alertas tempranas? Sí.