* Blog


* Últimos mensajes


* Temas mas recientes

PPCC: Pisitófilos Creditófagos. Primavera 2024 por senslev
[Hoy a las 18:20:22]


Geopolitica siglo XXI por saturno
[Hoy a las 16:40:20]


XTE-Central 2024 : El opio del pueblo por saturno
[Hoy a las 16:31:59]


AGI por Saturio
[Hoy a las 01:36:57]


Autor Tema: El fin del trabajo  (Leído 900664 veces)

0 Usuarios y 3 Visitantes están viendo este tema.

Benzino Napaloni

  • Estructuralista
  • ****
  • Gracias
  • -Dadas: 875
  • -Recibidas: 16296
  • Mensajes: 1937
  • Nivel: 184
  • Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2160 en: Febrero 08, 2023, 09:36:46 am »
El código que ejecuta el modelo no tiene gran cosa. Lo relevante y lo que cuesta pasta, conocimientos y tiempo es diseñar y entrenar el modelo, y hacerlo bien.
La "base de conocimientos" no es simplemente meterle un corpus de texto y ya está. Hay que saber lo que se hace o puedes caer en una de las numerosas trampas en las que pueden caer estos modelos y que los hacen inútiles (sobreadaptación, GIGO, etc.)

Y bueno, una vez que tienes una técnica para seleccionar la información, pasarte unas semanas calculando el modelo en un cluster.

El mérito de ChatGPT no es el programa que ejecuta el modelo. Es el modelo. El negocio (al menos hasta que se masifique) es precisamente crearlos.


Ni siquiera hace falta limitar esta idea a la IA, pasa exactamente lo mismo con las personas. Ejecutar el trabajo es importante, obviamente, pero el valor de quien tiene el cerebro es mucho mayor.

Un conocido mío está pasando por las últimas fases de un proceso legal por acoso laboral. Fue el que puso en marcha varios sistemas de una startup, y le forzaron a irse cuando empezó a resultar "incómodo". La incomodidad no era otra que avisar que se estaban cometiendo errores graves en la planificación y que la calidad era importante. Cuando por fin tiró la toalla, al principio más de uno pensó aliviado que por fin se habían deshecho del que estaba jodiendo al equipo. Craso error, porque además el que estaba desestabilizando era uno que ambicionaba el puesto de director técnico y que quería deshacerse de cualquiera que le hiciese sombra. Menos de un año después el departamento de ingeniería quedó prácticamente vacío porque los demás acabaron yéndose también. La empresa tiene suerte de seguir existiendo, pero el producto ya sólo se mantiene con parches. Perdieron al cerebro que creó la base, y ahora no consiguen ir más allá de los parches. Dentro de no mucho tiempo el producto morirá por obsoleto, si es que no cae antes por otra cosa.


Un caso aún más exagerado fue Boeing. Después de la fusión con Douglas empezaron a cargarse a los ingenieros caros, los que no autorizaban salida al mercado si no estaba garantizada la calidad. Igual que mi conocido pero a lo bestia, vamos. La excusa era que el mantenimiento lo podían hacer ingenieros menos expertos, que la base ya estaba hecha. Ya saben cómo acabó esta historia, con dos 737 Max piñados y más de 300 muertos.


Todo lo que hay ahora con el ChatGPT es una vulgar moda de las que ya ha habido varias. De hacerse pajas mentales de prescindir de la mayor parte de la plantilla, y encima no para quedarse con el cerebro sino con el currante más barato que pueda mantener el tinglado. Con el agravante de que esta vez tenemos el invierno demográfico, y que ya llevamos varios avisos de que cuando las empresas han querido ir a contratar se han llevado la sorpresa de que no había.

Saturio

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 853
  • -Recibidas: 26313
  • Mensajes: 3393
  • Nivel: 658
  • Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2161 en: Febrero 08, 2023, 10:48:11 am »
Entendido, entendido.

O no del todo.

Mi cuestión es si se puede "sacar" ChatGPT del entorno donde quiera que sea que lo han entrenado o si lo saco de ahí se queda prácticamente en blanco y si lo entreno sobre otro entorno no llegará a ser aparentemente tan listo.

Please, entended que no soy informático ni matemático y no sé si me explico bien o hasta que punto digo majaderías.

Pongo una analogía. Tengo a un chaval listillo al que hago estudiar un montón de cosas, le doy a conocer a un montón de gente, lo paseo por un montón de barrios y ciudades y lo convierto en lo que lo convierto. Pero si lo llevo a un entorno muy concreto (por ejemplo un despacho de abogados, je, je) sus capacidades "se borran" y entonces lo pongo en contacto con ese mundo pero en ese mundo no puede aprender porque ahí no lo puedo hacer viajar a Estambul o ir al barrio de las 3.000 viviendas a cantar flamenco en los portales.

O puesta mi pregunta de otro modo. ¿Es la exposición y aprendizaje a un determinado cuerpo de conocimiento (entre el que se encuentran, qué se yo, los trabajos del rincón del vago) lo que ha hecho al bot lo que es (evidentemente junto con la intención de sus programadores de que de unos resultados de una determinada manera)?. ¿Si lo hago correr y lo entreno sobre otro cuerpo de conocimiento, por ejemplo más específico, limitado, profundo y podado de mierdas podría ocurrir que no funcionase o lo hiciese muy mal?

pollo

  • Administrator
  • Netocrata
  • *****
  • Gracias
  • -Dadas: 27116
  • -Recibidas: 29502
  • Mensajes: 3455
  • Nivel: 462
  • pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.pollo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2162 en: Febrero 08, 2023, 13:02:38 pm »
Entendido, entendido.

O no del todo.

Mi cuestión es si se puede "sacar" ChatGPT del entorno donde quiera que sea que lo han entrenado o si lo saco de ahí se queda prácticamente en blanco y si lo entreno sobre otro entorno no llegará a ser aparentemente tan listo.

Please, entended que no soy informático ni matemático y no sé si me explico bien o hasta que punto digo majaderías.

Pongo una analogía. Tengo a un chaval listillo al que hago estudiar un montón de cosas, le doy a conocer a un montón de gente, lo paseo por un montón de barrios y ciudades y lo convierto en lo que lo convierto. Pero si lo llevo a un entorno muy concreto (por ejemplo un despacho de abogados, je, je) sus capacidades "se borran" y entonces lo pongo en contacto con ese mundo pero en ese mundo no puede aprender porque ahí no lo puedo hacer viajar a Estambul o ir al barrio de las 3.000 viviendas a cantar flamenco en los portales.

O puesta mi pregunta de otro modo. ¿Es la exposición y aprendizaje a un determinado cuerpo de conocimiento (entre el que se encuentran, qué se yo, los trabajos del rincón del vago) lo que ha hecho al bot lo que es (evidentemente junto con la intención de sus programadores de que de unos resultados de una determinada manera)?. ¿Si lo hago correr y lo entreno sobre otro cuerpo de conocimiento, por ejemplo más específico, limitado, profundo y podado de mierdas podría ocurrir que no funcionase o lo hiciese muy mal?
Resumo el proceso completo de forma muy abstracta para que quede claro a qué me refiero:

- Se decide sobre qué entrenamos el modelo. En el caso de ChatGPT es un modelo conversacional. Tiene que proporcionar respuestas lingüísticamente convicentes (no precisas o ciertas).

- Se decide un framework (esto serían programas y/o librerías) para el entrenamiento y para la ejecución del modelo.

- Se decide la estructura interna del modelo (capas de neuronas, conexión entre ellas, etc.). Esta es una de las partes complicadas y que requiere saber.

- Se decide el conjunto de datos. Lo normal es que sea un corpus de información homogénea y fitrada para evitar falsos positivos. Esto no es trivial y requiere también ingenio.

- Se entrena al modelo.
En principio el método manual es el más factible (se presentan ejemplos a gente y en cada ejemplo se decide si encaja en lo que tiene que reconocer la IA, repetido miles, cientos de miles o millones de veces), pero se han desarrollado técnicas que permiten automatizar parcialmente o totalmente el proceso, o transferir datos de un modelo a otro. Dar con una técnica automatizada puede ser clave (como en el caso de AlphaGo).
El entrenamiento lo que hace es ir ajustando pesos (un archivo de números al fin y al cabo) representados en una matriz multidimensional gigantesca. Cada ejemplo del entrenamiento ajusta ligeramente los números de esta matriz, pero no se guarda la información del ejemplo como tal.

- Cuando se termina, tienes el "modelo", que no es otra cosa que un archivo con números. Estos números más o menos vienen a representar una función matemática multidimensional (con muchos parámetros) que tiene la particularidad de devolver resultados útiles para nuestro problema, pero los números por sí solos no permiten saber cuál es la información contenida en ellos porque no tienen un formato o estructura conocidos a priori. Sería análogo a preguntarle a alguien qué sumandos había en una suma si el resultado de la suma fue 8.

- Este modelo puede utilizarse junto con un programa que lo "consulte", que es lo que nosotros podemos usar con ChatGPT vía web.

Como se ve, el proceso es el que es. Una vez entrenado el modelo, responde lo que responde. No se puede a priori utilizar para otra cosa. Lo que sí que puede hacerse es seguir la misma técnica para otro tipo de datos y fijándose en el entrenamiento que primen otros criterios (como podría ser el caso de interpretar textos legales). El problema consiste en que a más capas de abstracción, más entrenamiento hay que hacer, más parámetros en el modelo y más difícil resulta que las respuestas sean de calidad.


También hay otros campos de investigación donde se están realizando "transferencias" de conocimiento, es decir, usar modelos junto con otros modelos, a veces para reentrenar, a veces para especializar, etc. Ahí ya desconozco cual es la situación, pero por lo que sé es parcialmente posible con técnicas especiales.

Otra posibilidad es entrenar un modelo con otro (redes adversarias), donde un modelo coevoluciona con otro, uno dando respuestas y otro dando feedback a esas respuestas, pero al final todo implica un reentrenamiento, que es la parte costosa del proceso. Hasta donde yo sé una vez entrenado el modelo se queda más o menos como está (se sospecha que ChatGPT utiliza los propios prompts de los usuarios por la web para seguir entrenando, ya que se adapta a respuestas de sesiones anteriores).

Además hay otro problema práctico, que es el de cómo meterle a uno de estos modelos un "sentido común", que podría interpretarse como un entrenamiento genérico sobre cómo funciona el mundo en general. Para que cuando te cuenta una historia no mate un personaje para a continuación seguir hablando de lo que hace ese mismo personaje (el modelo sabe que a la muerte le acompañan palabras negativas, de tristeza, rabia, etc. pero ignora por completo las implicaciones de que alguien esté muerto, como por ejemplo que deja de actuar).

Con las leyes hay un problema similar, probablemente sea capaz de hacerte buenos resúmenes y de aproximarte sentencias y recursos, pero habría fallos garrafales en la lógica porque esas sentencias también tienen el sentido común de una persona como input (la interpretación que hace el juez por ejemplo), cosa que el modelo no tiene. O dicho de otra forma: no puedes darle a un modelo conocimiento de cómo funciona el mundo sólo con textos legales, por lo que tendrá ceguera a muchas cosas (por poner ejemplos aleatorios no sabrá que un bebé es un ser indefenso o que las cosas caen).


No sé si he aclarado dudas o creado más, pero espero al menos haber dado una visión general para entender qué se puede y qué no.
« última modificación: Febrero 08, 2023, 13:16:05 pm por pollo »

Benzino Napaloni

  • Estructuralista
  • ****
  • Gracias
  • -Dadas: 875
  • -Recibidas: 16296
  • Mensajes: 1937
  • Nivel: 184
  • Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.Benzino Napaloni Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2163 en: Febrero 08, 2023, 13:48:52 pm »
Un ejemplo más sencillo y anterior a ChatGTP es cómo usar el análisis de datos para pescar al que evade impuestos.

Inspección no puede estar a todo, y si tiene que revisar todo a mano esto sería el paraíso del defraudador. De hecho durante mucho tiempo (y aún hoy) se defraudaba como parte de una estrategia. Calculas qué tan probable es que te pesquen, provisionas, y profit.

Un programa jamás, jamás va a poder decidir por sí mismo si hay fraude o no, porque la casuística es gigantesca. Pero se puede aplicar Pareto, porque como en el colegio el que la lía suele ser casi siempre el mismo. Si de repente tus ingresos se triplican, o se cruzan los datos con el catastro o de consumo, y se ve que tienes una casa habitada no declarada, etc, pues salta una alarma.


Es decir, se trata de buscar lo que canta más que un canario y se deja pasar el resto. Esto ahorra trabajo. Ahora vienen los peros:

  • Un positivo sólo es una alerta de posible fraude. No es una prueba definitiva. Sirve (o debe servir) para llamar la atención del inspector humano, y que así centre su tiempo en los casos donde es más probable "pescar". Y el resultado debe añadirse al modelo para refinarlo. Como dice pollo, el algoritmo que aplica el conocimiento es la parte menos importante, la más importante es el conocimiento en sí.
  • La guerra entre el policía y el ladrón nunca termina. Lo que vuela por debajo del radar no está necesariamente bien hecho. Es imprescindible que el que hace el papel de poli no use el algoritmo como una excusa para rascarse el badajo. El tiempo que ha quedado libre se tiene que dedicar entre otras cosas a tratar de anticiparse al ladrón. Porque si no, el ladrón aprenderá dónde está el límite para que el chivato automático no cante. Lo que a largo plazo convertiría el algoritmo en papel mojado.

Una vez más aparece la idea de que la máquina sólo ahorra trabajo mecánico y repetitivo, no exime de pensar. El currito y la empresa inteligente saben esto, y reservan buena parte del tiempo a usar el cerebro, que está para pensar y no para criar pelo.

Saturio

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 853
  • -Recibidas: 26313
  • Mensajes: 3393
  • Nivel: 658
  • Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2164 en: Febrero 08, 2023, 14:54:32 pm »
(por poner ejemplos aleatorios no sabrá que un bebé es un ser indefenso o que las cosas caen).


No sé si he aclarado dudas o creado más, pero espero al menos haber dado una visión general para entender qué se puede y qué no.

Sí, bastante claro. Gracias.

La cuestión es que no sabemos con qué o sobre qué han entrenado al bot. Como la búsqueda era dar respuestas en lenguaje human, en ese sentido lo mejor es acceder a cuanto más lenguaje humano mejor, sea bueno o malo (correcto o incorrecto, lógico o ilógico)
Además, durante el entrenamiento el bot recibe un "premio" por responder en lenguaje humano inteligible, estructurado y dentro del contexto de la conversación y no por responder correctamente.


Saturio

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 853
  • -Recibidas: 26313
  • Mensajes: 3393
  • Nivel: 658
  • Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2165 en: Febrero 08, 2023, 15:07:47 pm »
Un ejemplo más sencillo y anterior a ChatGTP es cómo usar el análisis de datos para pescar al que evade impuestos.

Inspección no puede estar a todo, y si tiene que revisar todo a mano esto sería el paraíso del defraudador. De hecho durante mucho tiempo (y aún hoy) se defraudaba como parte de una estrategia. Calculas qué tan probable es que te pesquen, provisionas, y profit.

Un programa jamás, jamás va a poder decidir por sí mismo si hay fraude o no, porque la casuística es gigantesca. Pero se puede aplicar Pareto, porque como en el colegio el que la lía suele ser casi siempre el mismo. Si de repente tus ingresos se triplican, o se cruzan los datos con el catastro o de consumo, y se ve que tienes una casa habitada no declarada, etc, pues salta una alarma.


Es decir, se trata de buscar lo que canta más que un canario y se deja pasar el resto. Esto ahorra trabajo. Ahora vienen los peros:

  • Un positivo sólo es una alerta de posible fraude. No es una prueba definitiva. Sirve (o debe servir) para llamar la atención del inspector humano, y que así centre su tiempo en los casos donde es más probable "pescar". Y el resultado debe añadirse al modelo para refinarlo. Como dice pollo, el algoritmo que aplica el conocimiento es la parte menos importante, la más importante es el conocimiento en sí.
  • La guerra entre el policía y el ladrón nunca termina. Lo que vuela por debajo del radar no está necesariamente bien hecho. Es imprescindible que el que hace el papel de poli no use el algoritmo como una excusa para rascarse el badajo. El tiempo que ha quedado libre se tiene que dedicar entre otras cosas a tratar de anticiparse al ladrón. Porque si no, el ladrón aprenderá dónde está el límite para que el chivato automático no cante. Lo que a largo plazo convertiría el algoritmo en papel mojado.

Una vez más aparece la idea de que la máquina sólo ahorra trabajo mecánico y repetitivo, no exime de pensar. El currito y la empresa inteligente saben esto, y reservan buena parte del tiempo a usar el cerebro, que está para pensar y no para criar pelo.

Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.
La cuestión es saber exáctamente cuánto nos venden la burra cada vez que nos dicen que tienen una versión primitiva de HAL 9000.
Como cuando Tesla dice que tiene un sistema de Capacidad de Conducción Autónoma Total.
Y luego lees esto en su propia web:

Citar
Capacidad de conducción autónoma total

    Todas las funcionalidades del Piloto automático básico y Piloto automático mejorado
    Control de semáforos y señales de stop (Beta): identifica las señales de stop y los semáforos. Al acercarse a ellos, reduce automáticamente la velocidad del coche hasta detenerlo, siempre bajo su supervisión.
    Próximamente:
        Autogiro en vías urbanas

Recordemos que detrás de estas cosas no hay unos santos y abnegados científicos y técnicos sino unos señores que quieren vender cosas. Y además estos señores ya tienen una capacidad brutal de dirigir la conversación social.



sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 50030
  • -Recibidas: 59719
  • Mensajes: 9794
  • Nivel: 981
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2166 en: Febrero 08, 2023, 15:33:43 pm »
Entendido, entendido.

O no del todo.

Mi cuestión es si se puede "sacar" ChatGPT del entorno donde quiera que sea que lo han entrenado o si lo saco de ahí se queda prácticamente en blanco y si lo entreno sobre otro entorno no llegará a ser aparentemente tan listo.

Please, entended que no soy informático ni matemático y no sé si me explico bien o hasta que punto digo majaderías.

Pongo una analogía. Tengo a un chaval listillo al que hago estudiar un montón de cosas, le doy a conocer a un montón de gente, lo paseo por un montón de barrios y ciudades y lo convierto en lo que lo convierto. Pero si lo llevo a un entorno muy concreto (por ejemplo un despacho de abogados, je, je) sus capacidades "se borran" y entonces lo pongo en contacto con ese mundo pero en ese mundo no puede aprender porque ahí no lo puedo hacer viajar a Estambul o ir al barrio de las 3.000 viviendas a cantar flamenco en los portales.

O puesta mi pregunta de otro modo. ¿Es la exposición y aprendizaje a un determinado cuerpo de conocimiento (entre el que se encuentran, qué se yo, los trabajos del rincón del vago) lo que ha hecho al bot lo que es (evidentemente junto con la intención de sus programadores de que de unos resultados de una determinada manera)?. ¿Si lo hago correr y lo entreno sobre otro cuerpo de conocimiento, por ejemplo más específico, limitado, profundo y podado de mierdas podría ocurrir que no funcionase o lo hiciese muy mal?
Resumo el proceso completo de forma muy abstracta para que quede claro a qué me refiero:

- Se decide sobre qué entrenamos el modelo. En el caso de ChatGPT es un modelo conversacional. Tiene que proporcionar respuestas lingüísticamente convicentes (no precisas o ciertas).

- Se decide un framework (esto serían programas y/o librerías) para el entrenamiento y para la ejecución del modelo.

- Se decide la estructura interna del modelo (capas de neuronas, conexión entre ellas, etc.). Esta es una de las partes complicadas y que requiere saber.

- Se decide el conjunto de datos. Lo normal es que sea un corpus de información homogénea y fitrada para evitar falsos positivos. Esto no es trivial y requiere también ingenio.

- Se entrena al modelo.
En principio el método manual es el más factible (se presentan ejemplos a gente y en cada ejemplo se decide si encaja en lo que tiene que reconocer la IA, repetido miles, cientos de miles o millones de veces), pero se han desarrollado técnicas que permiten automatizar parcialmente o totalmente el proceso, o transferir datos de un modelo a otro. Dar con una técnica automatizada puede ser clave (como en el caso de AlphaGo).
El entrenamiento lo que hace es ir ajustando pesos (un archivo de números al fin y al cabo) representados en una matriz multidimensional gigantesca. Cada ejemplo del entrenamiento ajusta ligeramente los números de esta matriz, pero no se guarda la información del ejemplo como tal.

- Cuando se termina, tienes el "modelo", que no es otra cosa que un archivo con números. Estos números más o menos vienen a representar una función matemática multidimensional (con muchos parámetros) que tiene la particularidad de devolver resultados útiles para nuestro problema, pero los números por sí solos no permiten saber cuál es la información contenida en ellos porque no tienen un formato o estructura conocidos a priori. Sería análogo a preguntarle a alguien qué sumandos había en una suma si el resultado de la suma fue 8.

- Este modelo puede utilizarse junto con un programa que lo "consulte", que es lo que nosotros podemos usar con ChatGPT vía web.

Como se ve, el proceso es el que es. Una vez entrenado el modelo, responde lo que responde. No se puede a priori utilizar para otra cosa. Lo que sí que puede hacerse es seguir la misma técnica para otro tipo de datos y fijándose en el entrenamiento que primen otros criterios (como podría ser el caso de interpretar textos legales). El problema consiste en que a más capas de abstracción, más entrenamiento hay que hacer, más parámetros en el modelo y más difícil resulta que las respuestas sean de calidad.


También hay otros campos de investigación donde se están realizando "transferencias" de conocimiento, es decir, usar modelos junto con otros modelos, a veces para reentrenar, a veces para especializar, etc. Ahí ya desconozco cual es la situación, pero por lo que sé es parcialmente posible con técnicas especiales.

Otra posibilidad es entrenar un modelo con otro (redes adversarias), donde un modelo coevoluciona con otro, uno dando respuestas y otro dando feedback a esas respuestas, pero al final todo implica un reentrenamiento, que es la parte costosa del proceso. Hasta donde yo sé una vez entrenado el modelo se queda más o menos como está (se sospecha que ChatGPT utiliza los propios prompts de los usuarios por la web para seguir entrenando, ya que se adapta a respuestas de sesiones anteriores).

Además hay otro problema práctico, que es el de cómo meterle a uno de estos modelos un "sentido común", que podría interpretarse como un entrenamiento genérico sobre cómo funciona el mundo en general. Para que cuando te cuenta una historia no mate un personaje para a continuación seguir hablando de lo que hace ese mismo personaje (el modelo sabe que a la muerte le acompañan palabras negativas, de tristeza, rabia, etc. pero ignora por completo las implicaciones de que alguien esté muerto, como por ejemplo que deja de actuar).

Con las leyes hay un problema similar, probablemente sea capaz de hacerte buenos resúmenes y de aproximarte sentencias y recursos, pero habría fallos garrafales en la lógica porque esas sentencias también tienen el sentido común de una persona como input (la interpretación que hace el juez por ejemplo), cosa que el modelo no tiene. O dicho de otra forma: no puedes darle a un modelo conocimiento de cómo funciona el mundo sólo con textos legales, por lo que tendrá ceguera a muchas cosas (por poner ejemplos aleatorios no sabrá que un bebé es un ser indefenso o que las cosas caen).


No sé si he aclarado dudas o creado más, pero espero al menos haber dado una visión general para entender qué se puede y qué no.

Desde luego.



Una vez entendido el concepto "herramienta".... se abre un mundo de posibilidades:











La idea es: rapidísimo. ¿Dónde sería util "buscar"?

sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 50030
  • -Recibidas: 59719
  • Mensajes: 9794
  • Nivel: 981
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2167 en: Febrero 08, 2023, 15:35:26 pm »
[...] Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.





Igual... Hasta no nos da la gana llegar ahí.

el malo

  • Espectador
  • ***
  • Gracias
  • -Dadas: 16219
  • -Recibidas: 12691
  • Mensajes: 1265
  • Nivel: 155
  • el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2168 en: Febrero 08, 2023, 15:49:00 pm »
[...] Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.


Igual... Hasta no nos da la gana llegar ahí.

¡Uy que no! El sueño húmedo de cualquier empresario. Tener un HAL que haga TODO y el empresario sólo tiene que pone el cazo.

Incluso el sueño húmedo de más un padre (incluyo madre) que pagaría lo que fuera por un HAL que le críe a los hijos (HAL, baña al niño. HAL, deberes. HAL, ya que estás, haz la cena para toda la familia).

Interesante paradoja, vivir en un mundo en el que las máquinas hacen todo el trabajo y los seres humanos no hacemos falta.. pero por otro lado, si no hay seres humanos, ¿para qué necesistas hacer todo ese trabajo en primer lugar?

wanderer

  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 63682
  • -Recibidas: 46878
  • Mensajes: 6830
  • Nivel: 773
  • wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.wanderer Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2169 en: Febrero 08, 2023, 16:52:26 pm »
[...] Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.


Igual... Hasta no nos da la gana llegar ahí.

¡Uy que no! El sueño húmedo de cualquier empresario. Tener un HAL que haga TODO y el empresario sólo tiene que pone el cazo.

Incluso el sueño húmedo de más un padre (incluyo madre) que pagaría lo que fuera por un HAL que le críe a los hijos (HAL, baña al niño. HAL, deberes. HAL, ya que estás, haz la cena para toda la familia).

Interesante paradoja, vivir en un mundo en el que las máquinas hacen todo el trabajo y los seres humanos no hacemos falta.. pero por otro lado, si no hay seres humanos, ¿para qué necesistas hacer todo ese trabajo en primer lugar?

Y ya puestos, ¿porqué no robotizar la política? ¿y las decisiones corporativas? A lo mejor el CEO engominao acaba siendo un pringadete totalmente prescindible...  :-\
"De lo que que no se puede hablar, es mejor callar" (L. Wittgenstein; Tractatus Logico-Philosophicus).

el malo

  • Espectador
  • ***
  • Gracias
  • -Dadas: 16219
  • -Recibidas: 12691
  • Mensajes: 1265
  • Nivel: 155
  • el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.el malo Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2170 en: Febrero 08, 2023, 16:57:14 pm »
[...] Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.


Igual... Hasta no nos da la gana llegar ahí.

¡Uy que no! El sueño húmedo de cualquier empresario. Tener un HAL que haga TODO y el empresario sólo tiene que pone el cazo.

Incluso el sueño húmedo de más un padre (incluyo madre) que pagaría lo que fuera por un HAL que le críe a los hijos (HAL, baña al niño. HAL, deberes. HAL, ya que estás, haz la cena para toda la familia).

Interesante paradoja, vivir en un mundo en el que las máquinas hacen todo el trabajo y los seres humanos no hacemos falta.. pero por otro lado, si no hay seres humanos, ¿para qué necesistas hacer todo ese trabajo en primer lugar?

Y ya puestos, ¿porqué no robotizar la política? ¿y las decisiones corporativas? A lo mejor el CEO engominao acaba siendo un pringadete totalmente prescindible...  :-\

Los chinos ya van por delante en eso también

https://www.ndtv.com/world-news/tang-yu-an-ai-powered-robot-named-ceo-of-a-chinese-company-3326427


R.G.C.I.M.

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 25745
  • -Recibidas: 31238
  • Mensajes: 3740
  • Nivel: 606
  • R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.R.G.C.I.M. Sus opiniones inspiran a los demás.
  • Apres moi, le deluge.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2171 en: Febrero 08, 2023, 17:00:35 pm »
La fundación.
Era lo último que iba quedando de un pasado cuyo aniquilamiento no se consumaba, porque seguía aniquilándose indefinidamente, consumiéndose dentro de sí mismo, acabándose a cada minuto pero sin acabar de acabarse jamás.

sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 50030
  • -Recibidas: 59719
  • Mensajes: 9794
  • Nivel: 981
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2172 en: Febrero 08, 2023, 17:10:50 pm »
[...] Lo cierto es que para llegar a HAL 9000 nos queda mucho, muchísimo.


Igual... Hasta no nos da la gana llegar ahí.

¡Uy que no! El sueño húmedo de cualquier empresario. Tener un HAL que haga TODO y el empresario sólo tiene que pone el cazo.

Incluso el sueño húmedo de más un padre (incluyo madre) que pagaría lo que fuera por un HAL que le críe a los hijos (HAL, baña al niño. HAL, deberes. HAL, ya que estás, haz la cena para toda la familia).

Interesante paradoja, vivir en un mundo en el que las máquinas hacen todo el trabajo y los seres humanos no hacemos falta.. pero por otro lado, si no hay seres humanos, ¿para qué necesistas hacer todo ese trabajo en primer lugar?
Ya, ahora me vas a decir que el (presunto) explotador... quiere ser explotado.




[ Igual tienes que revisar la peli. ]

Saturio

  • Netocrata
  • ****
  • Gracias
  • -Dadas: 853
  • -Recibidas: 26313
  • Mensajes: 3393
  • Nivel: 658
  • Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.Saturio Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2173 en: Febrero 08, 2023, 21:41:13 pm »
Si a mi me preguntan que si quiero una AI que escriba novelas o componga canciones o pinte cuadros diré que no, que para qué cojones.
Una novela una canción o un cuadro tienen interés, entre otras cosas porque las ha hecho un humano.

Prosigo.

No creo que nadie que aprecie las novelas, las canciones o los cuadros piense de forma distinta y de ningún creador de esas cosas ha salido la idea ni el trabajo de pretender que una IA las haga.
Lo que plantea...¿Quién cojones entonces se empeña en que las IA hagan arte?

(Como nota al margen, las herramientas actuales (sin IA de por medio) permiten una cantidad de trampas bestiales y sin hacer trampas, como dibujante amateur, puedo hacer tanto uso de referencias fotográficas y modelos 3D que Alberto Durero diría que sí hago trampas).

Así que unos tipos sin ningún interés artístico y sin entender lo que es el arte ponen a sus máquinas a hacer supuesto arte.

Todo esto es un ejemplo. Así con todo. Igual casi nadie quiere a Hal 9000 pero si fuese posible lo tendríamos.

Si a cualquiera le preguntas si quiere que se desarrolle software que permita avances en la bioquímica a través de cálculos y simulaciones que permitirían diseñar fármacos 1000 veces más efectivos con mucho menos coste y tiempo de desarrollo te diría que sí.
¿Quiere usted un modelo que prediga terremotos y dé alertas tempranas? Sí.

¿Quiere que su empresa la dirija HAL 9000?. ¿para qué cojones?
¿Quiere leer novelas escritas por HAL 9000?. No me interesa, gracias.

Pero la verdad es que entre la historia, el guión y los diálogos de Rings Of Power y la mierda que podría escribir una inteligencia artificial no hay mucha diferencia. Y hay gente que quiere hacer mierda para venderla y curiosamene, gente dispuesta a comprarla.




sudden and sharp

  • Administrator
  • Sabe de economía
  • *****
  • Gracias
  • -Dadas: 50030
  • -Recibidas: 59719
  • Mensajes: 9794
  • Nivel: 981
  • sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.sudden and sharp Sus opiniones inspiran a los demás.
    • Ver Perfil
Re:El fin del trabajo
« Respuesta #2174 en: Febrero 08, 2023, 21:57:14 pm »
[...] Si a cualquiera le preguntas si quiere que se desarrolle software que permita avances en la bioquímica a través de cálculos y simulaciones que permitirían diseñar fármacos 1000 veces más efectivos con mucho menos coste y tiempo de desarrollo te diría que sí.
¿Quiere usted un modelo que prediga terremotos y dé alertas tempranas? Sí.

Esa es fácil.

El que no pueda lo que quiera, que quiera lo que pueda.
  José Ortega y Gasset (1883-1955) Filósofo y ensayista español.

Tags: 21 horas 
 


SimplePortal 2.3.3 © 2008-2010, SimplePortal