Algunos desarrolladores de la IA quieren que esta acabe con la humanidad: "No es algo que se pueda ignorar" https://www.larazon.es/tecnologia-consumo/algunos-desarrolladores-quieren-que-esta-acabe-humanidad-algo-que-pueda-ignorar_2025101268e6672d0e3c6c5098282db8.html?outputType=amp#amp_tf=De%20%251%24s&aoh=17608062164427&csi=0&referrer=https%3A%2F%2Fwww.google.com
Yo aquí lo que veo es un debate vacío entre flipados y aún más flipados.
Se están presuponiendo demasiadas cosas sin ningún tipo de prueba experimental más allá de estereotipos chorras de ciencia-ficción y grandes dosis de imaginación infantil.
Para mí, la suposición más absurda y sin base de todas es que la supuesta IA superinteligente va a ser omnisciente y omnipotente. Basta con observar el mundo real para darse cuenta de que la inteligencia no da retornos exponenciales (véanse los superpoderes de las personas con CI extremadamente alto, los x-men son unos mindundis a su lado), ni resuelve problemas irresolubles por arte de magia.
La singularidad es una idea estúpida sólo contemplable por estúpidos, ya que se basa en cargarse todas las ideas fundamentales sobre energía y física. En el fondo no deja de ser la creencia que de casi nada puede salir un todo omnipotente en un espacio de tiempo ridículo. La realidad es que el poder de una inteligencia por grande que pudiese ser está limitada por muchos factores de la realidad física:
- las leyes físicas no se alteran por muy listo que seas
- Una inteligencia alojada en un ordenador no puede escapar de este, por mucho que los libros y las películas metan este elemento fantástico. Y no, no hay formas que no hayamos pensado porque la propia cuestión no tiene sentido.
- la energía no está disponible infinitamente. Para disponer de energía hace falta invertir energía y para ello hace falta tecnología y tiempo.
- la información sobre la realidad es limitada y para conseguirla hace falta invertir energía y tiempo de forma constante
- aún resolviendo todo lo anterior, hay problemas que no tienen una solución por ser intratables en un tiempo finito (esto en la teoría, ya no digamos en la realidad).
Es esta parte la que le otorga a esta gente unas creencias religiosas: llegará una superinteligencia que le dará poderes mágicos. Es la venida de Dios en forma de tecnología. Una creencia tan respetable como el horóscopo a mi forma de ver.
Luego ya están las suposiciones más concretas como la motivación sospechosamente biológica de esta IA (que no se sabe de dónde sale), la creación espontanea de conciencia (que tampoco se sabe de dónde sale), el proceso aprendizaje sin experiencia y sin errores de esta IA (que tampoco se sabe de dónde se lo saca) y que tampoco tendría sentidos para interactuar con un montón de características del mundo real y lo más ridículo de todo, que es el argumento de película (la supuesta IA superinteligente siempre tiene una capacidad de actuación en el mundo físico totalmente inexplicable).
No sigo porque me da pereza. Hay tantas cuestiones sin ninguna explicación que se dan por ciertas, que me cuestiono o bien la honestidad intelectual de los participantes en el debate, o bien su inteligencia real. Mira, para eso sí que sirve la inteligencia, para distinguir realidad de ficción. Se le presupone un poco más a esta gente tan "docta".
Lo más interesante en este debate, a mi entender, es para los psicólogos y los filósofos, sobre lo que lleva a este tipo de gente a pensar en estos términos.