Elon Musk: La Inteligencia Artificial es un peligro para la humanidad mayor que un holocausto nuclear

Elon Musk lleva desde 2014 avisándonos de los peligros de la Inteligencia Artificial. Para él, esta tecnología en las manos inadecuadas, es más peligrosa que las bombas nucleares.

Hasta hace bastante poco tiempo, la posibilidad de programar una inteligencia en un sistema informático era tema de ciencia ficción. En la película 2001 (1968), HAL, la computadora de la nave, mata a varios tripulantes ante la certeza de que van a desconectarle. Al final, sólo queda en pie David Bowman, quien se abre paso hasta el núcleo del cerebro de HAL en una escena que ya ha pasado a la historia del cine:

La desconexión de Hal

Otro caso famoso, es la serie de películas Terminator (1984). En 2029, una inteligencia artificial llamada Skynet, desencadena una guerra nuclear con el objetivo de exterminar a la humanidad.

Pero la realidad tecnológica de aquellos años distaba mucho de lo que mostraban las películas. A lo más que aspiraban las computadoras era a competir en juegos complejos como el ajedrez. Los programadores eran capaces de analizar varios turnos por adelantado, y evaluar las posiciones a las que se llegaban según unos varemos predefinidos. La computadora, después, se quedaba con la jugada que le llevaba a las posiciones mejor valoradas. Normalmente los jugadores profesionales no tenían problemas en derrotar a estas máquinas. Hasta 1996, fecha en la que Deep Blue, un super-ordenador de IBM derrotó a Gary Kasparov, aunque finalmente sucumbió ante el campeón ruso por un marcador 3½ contra 2½.

Para que os hagáis una idea del ritmo al que va esto, Deep Blue tenía 11,38 gigaflops, y una PlayStation 5 tiene 10,28 teraflops (es decir 1 PlayStation 5 = 903 DeepBlues).

Hoy en día en cambio, la IA es uno de los principales exponentes de la tecnología, y la mayoría de las empresas del ramo tienen en su hoja de ruta desarrollarla. Aquella compañía que avance significativamente por delante de las demás en esta rama, será la predominante sobre el resto en los próximos 50 años.

Es posible que en algún momento hayáis accedido a un chat en un portal de compras, y una amable señorita os haya atendido a vuestros requerimientos. Aunque quizá, sin que vosotros lo sepáis, realmente hayáis sido atendidos por un sistema informático, que es capaz de entender lo que estáis pidiendo y encauzar vuestra petición hasta solucionarla.

Hoy también, los coches de Tesla, y en menos de 10 años todos los automóviles, llevan un sistema de autopilot que es capaz de conducir el coche de manera autónoma y super-segura. Cuando la extensión de este sistema sea mayoritario, el número de muertes en carretera disminuirá de forma drástica (aunque también la recaudación por multas de tráfico, así que a lo mejor en vez de 10 años son 20).

Pero a Musk no le asustan esos usos de la IA. Le preocupa que esta tecnología, una vez que evolucione de manera drástica, pueda caer en manos de terroristas, o en manos de dictaduras como la norcoreana, y que puedan utilizarla contra otras naciones. La manera en la que pueda ser utilizada ahora se nos antoja tan exótica como a los hombres de 1950 les podría parecer Internet, o un iPhone.

Musk advierte daños potenciales de la inteligencia artificial

Solo tenéis que ver cómo ha evolucionado la potencia de procesamiento en los últimos años, para haceros una idea de cómo puede evolucionar la inteligencia artificial en el futuro. El momento en el que una inteligencia artificial llegue a un punto en el que pueda mejorarse a sí misma, hecho que en el argot de la IA se conoce como singularidad tecnológica, se producirá un salto evolutivo en el que las máquinas aprenderán a velocidad de máquinas, y no a velocidad humana, dejándonos atrás cada vez a una velocidad mayor. Para algunos especialistas, estamos tan solo a 15 años de que esto ocurra.

La última vez que dos especies inteligentes distintas coexistieron en nuestro planeta fue hace 40.000 años. Eramos el homo sapiens y el neandertal. Sobrevivió el más inteligente.

  • Tengo que reconocer que hace algunos años creía que el riesgo de la “IA” estaba en la posibilidad de crear algún tipo de “conciencia artificial”. Pero después de investigar y entender que la “IA” es nada más que un software de predicción muy potente y sofisticado entiendo que el riego estriba en el sesgo o la naturaleza de la información que el usuario ingrese en el sistema y como esto afecta el resultado en simuladores o controladores de hardware.

    O sea. En las películas de Terminator, “Skynet” debe ser un pc manejado por una persona o un software ejecutando una rutina como consecuencia del volcado de un “batch” de información que alguien ingreso.

  • @ Claudio:
    Me acuerdo que para solucionar el tema de la conciencia artificial de Skynet, en el cómic Terminator vs Robocop, se dejaba claro que usaban el cerebro de Murphy como núcleo del sistema y era este el que ejecutaba la orden del holocausto nuclear. Fue una buena decisión. Hasta ahora la IA no tiene la capacidad de evolucioar por si misma. Quien sabe en un futuro.

  • @ Claudio:

    Tengo que reconocer que hace algunos años creía que el riesgo de la “IA” estaba en la posibilidad de crear algún tipo de “conciencia artificial”. Pero después de investigar y entender que la “IA” es nada más que un software de predicción muy potente y sofisticado entiendo que el riego estriba en el sesgo o la naturaleza de la información que el usuario ingrese en el sistema y como esto afecta el resultado en simuladores o controladores de hardware.

    Igual hace unos pocos años si, ahora ya no.
    Ya están experimentando para que aprendan y puedan tomar decisiones en base a problemas que se les presenten. Investigad sino, y más si cabe con la computación cuántica, que con toda probabilidad va a dejar en pañales todo lo que conocíamos hasta ahora.

    O sea. En las películas de Terminator, “Skynet” debe ser un pc manejado por una persona o un software ejecutando una rutina como consecuencia del volcado de un “batch” de información que alguien ingreso.

    Por lo menos en las películas dejan claro que Skynet y casi toda la tecnología del ejército americano, es controlada por unos nuevos chips conseguidos a partir del brazo del primer Terminator (Cyberdine). Crean Skynet desarrollando esta tecnología proveniente del futuro y nos cuentan que está tecnología es capaz de «aprender» (como estamos haciendo ahora con la computación cuántica), y una vez activan Skynet y esta es consciente de su potencial, maneja a su antojo el armamento americano provocando la guerra con grandes potencias mundiales y a su vez el consiguiente holocausto nuclear para protegerse del ser humano, ya que lo considera una amenaza.

    Por lo que al principio, si que sería un programa con directrices a seguir, pero una vez activo, nadie le dijo ni tenía programado las órdenes que llevó a cabo después, sino que tomó consciencia y fue capaz de actuar en base a su propio interés y beneficio.

    Pero no hay que olvidar una cosa: La realidad siempre supera a la ficción.

  • Invita2 dijo:

    Ya están experimentando para que aprendan y puedan tomar decisiones en base a problemas que se les presenten. Investigad sino,

    Sí, Pero esas decisiones están constreñidas al lote de información que entra y a las opciones que el programador predefinió. (si lo pensamos, bien eso basta para dar miedo)

    Invita2 dijo:

    y más si cabe con la computación cuántica, que con toda probabilidad va a dejar en pañales todo lo que conocíamos hasta ahora.

    El sistema de calculo de las computadoras quánticas requiere una nueva estructura lógica en el lenguaje de programación. Más allá de eso, entiendo que la diferencia esta justamente en la velocidad en la que genera probabilidades.

  • lamentira dijo:

    Un poco de coña en relación con este tema

    ¿2015? ¡Mi madre, como pasa el tiempo!

  • @ Claudio:

    Sí, Pero esas decisiones están constreñidas al lote de información que entra y a las opciones que el programador predefinió. (si lo pensamos, bien eso basta para dar miedo)

    De momento si. Pero el horizonte es que puedan ser bastante «autónomas» en la toma de cualquier decisión que se les presente, con vistas a ayudarnos en todas nuestras tareas, por lo que las variables, comandos y posibilidades que tendrán programados, se escapan a cualquier predicción.
    A ver, muy ineptos deberíamos ser para cometer los mismos errores que hemos visto en la ciencia ficción, y que se nos revelen. Me imagino que ya lo tendrán en cuenta.
    Lo que si que es preocupante, como dices y como casi siempre pasa, es quién y para qué haga uso de cualquier nueva tecnología, que es el miedo de Elon.
    A mi la verdad que me resulta entre desconcertante y fascinante, pensar que en «pocos años» estaremos rodeados de robots.

    Más allá de eso, entiendo que la diferencia esta justamente en la velocidad en la que genera probabilidades.

    Bueno, aparte de la velocidad de procesamiento, también se supone que dará soluciones nuevas a problemas ya conocidos y «resueltos», y soluciones a problemas para los que no conocemos solución, también supuestamente soluciones a nuevos problemas que todavía no tenemos y que se nos presentarán en el futuro.
    El bit clásico «solo» ofrece la posibilidad de estar entre 1 y 0, y un cúbit permite «estar y no estar» a la vez o no, lo que en teoría dará muchas y nuevas posibilidades.

    También me preocupa que no entendamos todavía el encaje de la mecánica cuántica con la física, como puede transgredir sus implacables leyes, y que estemos «trasteando» con ella en inteligencias artificiales.
    Aunque ya con los cristales de tiempo, se está transgrediendo una ley física.

    https://es.m.wikipedia.org/wiki/Cristal_de_espacio_tiempo

    Ya digo que espero que tomen medidas y sean más cautos que lo que hemos visto en la ciencia ficción.

  • Un enlace corto e interesante, con unos años ya, pero muestra por donde andamos:

    https://www.ingenieria.es/spinnaker-una-red-informatica/?amp

  • Que viene la cuarta revolución industrial con la implantación de IA por doquier, me lo creo, lo que dice un poco antes sobre el gran reseteo, ya me cuesta más.

    ¿Esto es lo del NWO (nuevo orden mundial)?
    ¿Quién es esa gente que controla todo en la sombra?
    ¿Son los masones?
    ¿Qué quieren de nosotros?
    ¿Es entonces toda la vida una conspiración controlada y manipulada?
    ¿Seremos entonces los ciborgs humanoides los que nos revelaremos contra los humanos?

  • Bueno, ya ha habido alguna ia que superó el test de turing.
    Y al comentario de

    El momento en el que una inteligencia artificial llegue a un punto en el que pueda mejorarse a sí misma, hecho que en el argot de la IA se conoce como singularidad tecnológica,

    A día de hoy el limite lo pone el propio programador, y para que se produzca esa singularidad no debería mejorarse solo una vez, sino varias creo yo ya que estará limitada por los conocimientos de la versión anterior.
    Y otro punto importante es que se verá también limitada por la física, si el «pc» en el que está no es optimo pues malo, por tanto la ia debe tener la posibilidad de ir saltando de equipo en equipo hasta encontrar uno donde pueda crecer, como un virus.

  • «..Then man made the machine in his own likeness. Thus did man become the architect of his own demise…»

  • Se habla, en peliculas, de «una inteligencia artificial», personalizando en un individuo (o ente) que dirija todos sus actos. Esto requeriria un programa maestro, programado por alguien, que digamos que puede dirigirlo.

    Creo que esto es un error, que puede incluso confiarnos. Alguna vez lei, creo que en relacion con la teoria de memes, que cualquier conjunto lo suficientemente grande de unidades basicas de informacion, acaban actuando como un solo organismo complejo, con decisiones y funciones complejas, que las unidades inferiores no comprenderian, pero estarian ahi.

    Eso pasa entre abejas y colmenas, y sobre todo en moleculas – adn – celulas – animales – inteligencia. No tiene porque haber una linea maestra, sino que se va creando al ritmo que los «memes» se hacen complejos.

    La inteligencia artificial puede ser asi. Las rutinas, van complicandose a medida que crecen (Ya casi nadie sabe en la totalidad lo programado), se incluyen librerias creadas en internet, que han ido multiplicandose como trozos de adn, muchas veces limpio, pero otras corrupto, mezclandose funciones bien dirigidas, con otras que no se sabe quien ha hecho, que funcionan pero pocos analizan buscando «adn» o lineas no queridas.
    La similitud con la teoria de la evolucion ahi esta.
    Si a eso le unimos la IA, no como programa pensante, sino como programa que aprende, busca su propia informacion, toma decisiones, genera codigo, y lo aplica, ya tendriamos la «celula» informatica, equivalente a la «vida». No hace falta que la IA sea ni compleja ni avanzada, si hay la cantidad suficiente, sin intentarlo, actuara como un «supermeme».
    Igual que una celula no sabe mas que sobrevivir, pero cuando se agrupa acaba generando animales, inteligencia, y progreso o destruccion, podria pasar lo mismo?

  • Hola Juanjo, se habla tambien en pelicula de elysium que gente vive bien feliz arriba, y sólo mierda abajo.Por que nunca peliculas muestran futuro perfecto para todos.Siempre todo desigual para interés de religion y ong.
    No porfiaba lo que decir cientificos de cambio climatico.Donde 2040 extincion. pero si afirmo que dios no existe; ni tiene poder. Porque demostró a todas las personas ser un inutil incapaz de acabar con la humanidad.

  • Richard, supongo que será el traductor que no funciona bien, hay frases que no se entienden. Dices que demostró a las personas ser un inútil? Si demostró ser un inútil, es que crees que existe, aunque sin poder. Y si no tiene poder, no es Dios, está en su definición.

    Yo soy profundamente ateo, simplemente, no consigo creer en Dios. Pero no se me ocurre negar su existencia, se cree en el por convicciones personales, y por las mías, no creo que exista. Pero no lo afirmó, eso sería prepotencia

  • Juanjo dijo:

    Richard, supongo que será el traductor que no funciona bien, hay frases que no se entienden. Dices que demostró a las personas ser un inútil? Si demostró ser un inútil, es que crees que existe, aunque sin poder. Y si no tiene poder, no es Dios, está en su definición.

    Yo soy profundamente ateo, simplemente, no consigo creer en Dios. Pero no se me ocurre negar su existencia, se cree en el por convicciones personales, y por las mías, no creo que exista. Pero no lo afirmó, eso sería prepotencia

    Interesante la filosofia compleja antes de ser secuestrada por la psicologia moderna
    https://www.youtube.com/watch?v=qiocnqAYA3c

  • @ lamentira:
    En modo de disculpa; le traduzco a usted este comentario con traductor; porque me siento incómodo de haberle faltado el respeto.
    .
    Desde la desconexión de HAL 9000: daría comienzo un miedo psicosocial colectivo infundado (desde mi punto de vista) que desencadenaría hacia una fobia colectiva; y que a su vez; ;iria creciendo y aumentando social y científicamente hasta la posteridad. Pero considero innecesario, que a razón de ahí; todos debamos tenerle miedo o desconfianza a las maquinas inteligentes; solo porque asi fuera expuesto en la pelicula; sin otro fundamento que ofrecer algo de emoción, temor y preocupacion al expectador. Lo cual no demostraría en absoluto; que ninguna maquina inteligente pudiera tener nunca y de manera demostrable; la capacidad de conciencia propia; como para que pudiera rebelarse jamás contra las personas, ni mostrar más emociones; que las introducidas en su memoria por el propio fabricante.

  • @ Richard Clarke:

    No me llega a quedar claro cómo traduce usted normalmente sus comentarios al español, ni cómo lee los nuestros, pero vendría bien que utilizase siempre el método que ha usado aquí, en este último comentario. Hay bastantes signos de puntuación fuera de lugar pero, aún así: ¡Se entiende mucho mejor todo lo que dice!



\Incluya

Puedes seguir las respuestas a esta entrada por RSS 2.0 feed.