Elon Musk: La Inteligencia Artificial es un peligro para la humanidad mayor que un holocausto nuclear

Elon Musk lleva desde 2014 avisándonos de los peligros de la Inteligencia Artificial. Para él, esta tecnología en las manos inadecuadas, es más peligrosa que las bombas nucleares.

Hasta hace bastante poco tiempo, la posibilidad de programar una inteligencia en un sistema informático era tema de ciencia ficción. En la película 2001 (1968), HAL, la computadora de la nave, mata a varios tripulantes ante la certeza de que van a desconectarle. Al final, sólo queda en pie David Bowman, quien se abre paso hasta el núcleo del cerebro de HAL en una escena que ya ha pasado a la historia del cine:

Otro caso famoso, es la serie de películas Terminator (1984). En 2029, una inteligencia artificial llamada Skynet, desencadena una guerra nuclear con el objetivo de exterminar a la humanidad.

Pero la realidad tecnológica de aquellos años distaba mucho de lo que mostraban las películas. A lo más que aspiraban las computadoras era a competir en juegos complejos como el ajedrez. Los programadores eran capaces de analizar varios turnos por adelantado, y evaluar las posiciones a las que se llegaban según unos varemos predefinidos. La computadora, después, se quedaba con la jugada que le llevaba a las posiciones mejor valoradas. Normalmente los jugadores profesionales no tenían problemas en derrotar a estas máquinas. Hasta 1996, fecha en la que Deep Blue, un super-ordenador de IBM derrotó a Gary Kasparov, aunque finalmente sucumbió ante el campeón ruso por un marcador 3½ contra 2½.

Para que os hagáis una idea del ritmo al que va esto, Deep Blue tenía 11,38 gigaflops, y una PlayStation 5 tiene 10,28 teraflops (es decir 1 PlayStation 5 = 903 DeepBlues).

Hoy en día en cambio, la IA es uno de los principales exponentes de la tecnología, y la mayoría de las empresas del ramo tienen en su hoja de ruta desarrollarla. Aquella compañía que avance significativamente por delante de las demás en esta rama, será la predominante sobre el resto en los próximos 50 años.

Es posible que en algún momento hayáis accedido a un chat en un portal de compras, y una amable señorita os haya atendido a vuestros requerimientos. Aunque quizá, sin que vosotros lo sepáis, realmente hayáis sido atendidos por un sistema informático, que es capaz de entender lo que estáis pidiendo y encauzar vuestra petición hasta solucionarla.

Hoy también, los coches de Tesla, y en menos de 10 años todos los automóviles, llevan un sistema de autopilot que es capaz de conducir el coche de manera autónoma y super-segura. Cuando la extensión de este sistema sea mayoritario, el número de muertes en carretera disminuirá de forma drástica (aunque también la recaudación por multas de tráfico, así que a lo mejor en vez de 10 años son 20).

Pero a Musk no le asustan esos usos de la IA. Le preocupa que esta tecnología, una vez que evolucione de manera drástica, pueda caer en manos de terroristas, o en manos de dictaduras como la norcoreana, y que puedan utilizarla contra otras naciones. La manera en la que pueda ser utilizada ahora se nos antoja tan exótica como a los hombres de 1950 les podría parecer Internet, o un iPhone.

Solo tenéis que ver cómo ha evolucionado la potencia de procesamiento en los últimos años, para haceros una idea de cómo puede evolucionar la inteligencia artificial en el futuro. El momento en el que una inteligencia artificial llegue a un punto en el que pueda mejorarse a sí misma, hecho que en el argot de la IA se conoce como singularidad tecnológica, se producirá un salto evolutivo en el que las máquinas aprenderán a velocidad de máquinas, y no a velocidad humana, dejándonos atrás cada vez a una velocidad mayor. Para algunos especialistas, estamos tan solo a 15 años de que esto ocurra.

La última vez que dos especies inteligentes distintas coexistieron en nuestro planeta fue hace 40.000 años. Eramos el homo sapiens y el neandertal. Sobrevivió el más inteligente.

  • Tengo que reconocer que hace algunos años creía que el riesgo de la “IA” estaba en la posibilidad de crear algún tipo de “conciencia artificial”. Pero después de investigar y entender que la “IA” es nada más que un software de predicción muy potente y sofisticado entiendo que el riego estriba en el sesgo o la naturaleza de la información que el usuario ingrese en el sistema y como esto afecta el resultado en simuladores o controladores de hardware.

    O sea. En las películas de Terminator, “Skynet” debe ser un pc manejado por una persona o un software ejecutando una rutina como consecuencia del volcado de un “batch” de información que alguien ingreso.

  • @ Claudio:
    Me acuerdo que para solucionar el tema de la conciencia artificial de Skynet, en el cómic Terminator vs Robocop, se dejaba claro que usaban el cerebro de Murphy como núcleo del sistema y era este el que ejecutaba la orden del holocausto nuclear. Fue una buena decisión. Hasta ahora la IA no tiene la capacidad de evolucioar por si misma. Quien sabe en un futuro.

  • Problema resuelto xD

  • @ Claudio:

    Tengo que reconocer que hace algunos años creía que el riesgo de la “IA” estaba en la posibilidad de crear algún tipo de “conciencia artificial”. Pero después de investigar y entender que la “IA” es nada más que un software de predicción muy potente y sofisticado entiendo que el riego estriba en el sesgo o la naturaleza de la información que el usuario ingrese en el sistema y como esto afecta el resultado en simuladores o controladores de hardware.

    Igual hace unos pocos años si, ahora ya no.
    Ya están experimentando para que aprendan y puedan tomar decisiones en base a problemas que se les presenten. Investigad sino, y más si cabe con la computación cuántica, que con toda probabilidad va a dejar en pañales todo lo que conocíamos hasta ahora.

    O sea. En las películas de Terminator, “Skynet” debe ser un pc manejado por una persona o un software ejecutando una rutina como consecuencia del volcado de un “batch” de información que alguien ingreso.

    Por lo menos en las películas dejan claro que Skynet y casi toda la tecnología del ejército americano, es controlada por unos nuevos chips conseguidos a partir del brazo del primer Terminator (Cyberdine). Crean Skynet desarrollando esta tecnología proveniente del futuro y nos cuentan que está tecnología es capaz de «aprender» (como estamos haciendo ahora con la computación cuántica), y una vez activan Skynet y esta es consciente de su potencial, maneja a su antojo el armamento americano provocando la guerra con grandes potencias mundiales y a su vez el consiguiente holocausto nuclear para protegerse del ser humano, ya que lo considera una amenaza.

    Por lo que al principio, si que sería un programa con directrices a seguir, pero una vez activo, nadie le dijo ni tenía programado las órdenes que llevó a cabo después, sino que tomó consciencia y fue capaz de actuar en base a su propio interés y beneficio.

    Pero no hay que olvidar una cosa: La realidad siempre supera a la ficción.

  • Invita2 dijo:

    Ya están experimentando para que aprendan y puedan tomar decisiones en base a problemas que se les presenten. Investigad sino,

    Sí, Pero esas decisiones están constreñidas al lote de información que entra y a las opciones que el programador predefinió. (si lo pensamos, bien eso basta para dar miedo)

    Invita2 dijo:

    y más si cabe con la computación cuántica, que con toda probabilidad va a dejar en pañales todo lo que conocíamos hasta ahora.

    El sistema de calculo de las computadoras quánticas requiere una nueva estructura lógica en el lenguaje de programación. Más allá de eso, entiendo que la diferencia esta justamente en la velocidad en la que genera probabilidades.

  • lamentira dijo:

    Un poco de coña en relación con este tema

    ¿2015? ¡Mi madre, como pasa el tiempo!

  • @ Claudio:

    Sí, Pero esas decisiones están constreñidas al lote de información que entra y a las opciones que el programador predefinió. (si lo pensamos, bien eso basta para dar miedo)

    De momento si. Pero el horizonte es que puedan ser bastante «autónomas» en la toma de cualquier decisión que se les presente, con vistas a ayudarnos en todas nuestras tareas, por lo que las variables, comandos y posibilidades que tendrán programados, se escapan a cualquier predicción.
    A ver, muy ineptos deberíamos ser para cometer los mismos errores que hemos visto en la ciencia ficción, y que se nos revelen. Me imagino que ya lo tendrán en cuenta.
    Lo que si que es preocupante, como dices y como casi siempre pasa, es quién y para qué haga uso de cualquier nueva tecnología, que es el miedo de Elon.
    A mi la verdad que me resulta entre desconcertante y fascinante, pensar que en «pocos años» estaremos rodeados de robots.

    Más allá de eso, entiendo que la diferencia esta justamente en la velocidad en la que genera probabilidades.

    Bueno, aparte de la velocidad de procesamiento, también se supone que dará soluciones nuevas a problemas ya conocidos y «resueltos», y soluciones a problemas para los que no conocemos solución, también supuestamente soluciones a nuevos problemas que todavía no tenemos y que se nos presentarán en el futuro.
    El bit clásico «solo» ofrece la posibilidad de estar entre 1 y 0, y un cúbit permite «estar y no estar» a la vez o no, lo que en teoría dará muchas y nuevas posibilidades.

    También me preocupa que no entendamos todavía el encaje de la mecánica cuántica con la física, como puede transgredir sus implacables leyes, y que estemos «trasteando» con ella en inteligencias artificiales.
    Aunque ya con los cristales de tiempo, se está transgrediendo una ley física.

    https://es.m.wikipedia.org/wiki/Cristal_de_espacio_tiempo

    Ya digo que espero que tomen medidas y sean más cautos que lo que hemos visto en la ciencia ficción.

  • Un enlace corto e interesante, con unos años ya, pero muestra por donde andamos:

    https://www.ingenieria.es/spinnaker-una-red-informatica/?amp

  • Que viene la cuarta revolución industrial con la implantación de IA por doquier, me lo creo, lo que dice un poco antes sobre el gran reseteo, ya me cuesta más.

    ¿Esto es lo del NWO (nuevo orden mundial)?
    ¿Quién es esa gente que controla todo en la sombra?
    ¿Son los masones?
    ¿Qué quieren de nosotros?
    ¿Es entonces toda la vida una conspiración controlada y manipulada?
    ¿Seremos entonces los ciborgs humanoides los que nos revelaremos contra los humanos?

  • @ Invita2:
    Todas esas preguntas tienen respuesta en el vídeo. O si no puedes leerte su libro o el de otros periodistasque han hecho el esfuerzo de seguir todos los procesos económicos que han promovido ciertas religiones modernas como las que tu sigues.

    Pero mi respuesta corta es: eres idiota, haces preguntas como los niños de cuatro años a respuestas que ya se te han dado

  • Bueno, ya ha habido alguna ia que superó el test de turing.
    Y al comentario de

    El momento en el que una inteligencia artificial llegue a un punto en el que pueda mejorarse a sí misma, hecho que en el argot de la IA se conoce como singularidad tecnológica,

    A día de hoy el limite lo pone el propio programador, y para que se produzca esa singularidad no debería mejorarse solo una vez, sino varias creo yo ya que estará limitada por los conocimientos de la versión anterior.
    Y otro punto importante es que se verá también limitada por la física, si el «pc» en el que está no es optimo pues malo, por tanto la ia debe tener la posibilidad de ir saltando de equipo en equipo hasta encontrar uno donde pueda crecer, como un virus.


\Incluya

Puedes seguir las respuestas a esta entrada por RSS 2.0 feed.

Uso de cookies

Este sitio web utiliza cookies. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies