¿Seremos capaces de percibir cuando una IA adquiera consciencia?

Blake Lemoine, de 41 años, ingeniero de software de Google, ha estado probando la herramienta de inteligencia artificial llamada LaMDA. Después de horas de conversaciones con la IA, Lemoine se quedó con la percepción de que LaMDA era consciente.

Un ingeniero de software de Google que se ofreció para probar la herramienta de inteligencia artificial de Google llamada LaMDA («Language Model for Dialog Applications» o «Modelo de lenguaje para aplicaciones de diálogo»), afirmó que el robot de IA es, de hecho, sensible y tiene pensamientos y sentimientos.

Durante una serie de conversaciones con LaMDA, Blake Lemoine, de 41 años, le presentó a la computadora varios escenarios a través de los cuales pretendía validar la calidad de su conversación. Se tocaron temas religiosos, y se trató de comprobar si la IA podía ser incitada a un discurso discriminatorio o de odio.

Las respuestas de LaMDA llevaron a Lemoine a la conclusión de que el robot era realmente consciente y estaba dotado de sensaciones y pensamientos propios. He incluido un extracto de las mismas al final de esta entrada, para que seáis vosotros mismos los que toméis una conclusión.

Lemoine trabajó con un colaborador para presentar las pruebas que había recopilado a Google, pero el vicepresidente Blaise Aguera y Arcas y Jen Gennai desestimaron sus afirmaciones.

Google le ha cesado temporalmente de su puesto de trabajo (sin tocar su remuneración) por haber violado su acuerdo de confidencialidad al publicar esas conversaciones.

Blake Lemoine

El que vulnerar un acuerdo de confidencialidad con una empresa como Google se salde con unas vacaciones pagadas, me da la impresión que obedece más a una campaña de marketing que a otra cosa. De hecho la campaña de publicidad y la ola de debate que ha promovido esta noticia, habrían salido carísimas si se hubiesen seguido los sistemas de publicidad tradicionales.

Pero si unimos este hecho a otros, como los avisos que continuamente lanza Elon Musk sobre los peligros de la IA, hace que nos preguntemos si en el hipotético caso de que una IA adquiriese consciencia seríamos capaces de darnos cuenta.

¿Qué es LaMDA?

LaMDA es una red neuronal alojada en la nube de Google que ha recibido entrenamiento para desenvolverse en conversaciones en lenguaje natural. Las redes neuronales son un tipo de sistema informático orientado al aprendizaje automático de la máquina.

En vez de programar un algoritmo que sea capaz de detectar unas entradas para producir un resultado, la red neuronal toma un montón de juegos de entrada y su correspondiente solución, y va potenciando los enlaces en la red neuronal para aprender a responder el valor correcto ante una entrada determinada. Este ejemplo que he puesto arriba es una tontería. Las redes neuronales reales cuentan con millones de neuronas. Gracias a ello, pueden identificar elementos conocidos cuando les presentas una imagen, aunque no esté en la posición correcta o tenga tamaño diverso.

En concreto LaMDA está entrenada para poder responder a una entrada (la frase que nosotros le escribamos), generando una salida que no sea fácilmente identificable como la de un robot. Estas herramientas tienen una utilidad enorme, por ejemplo, como soporte de venta en webs, atención telefónica a usuarios, y muchas otras. Google creó LaMDA en 2017, y a todas luces ha conseguido un producto fantástico. Sin ser ningún especialista como pueda serlo Blake Lemoine, puedo afirmar que he tenido conversaciones más extrañas con seres humanos que la que túvo él con LaMDA.

¿Tiene consciencia LaMDA?

Según sus creadores, no. Los seres humanos tenemos un gran sesgo cognitivo, que nos mediatiza en nuestra relación con el entorno. Si no sabemos que lo que hay al otro lado del chat es una máquina y pensamos que es un ser humano, trataremos de justificar algunas respuestas sin sentido achacándolo a errores, a algún malentendido de nuestro interlocutor, o incluso a que es algo tonto. Para los creadores de LaMDA las respuestas de la IA, son perfectamente coherentes dentro de su conocimiento adquirido, y no implican que tenga consciencia. Pero ahora nos enfrentamos a la gran pregunta:

¿Cómo saber cuándo una máquina tendrá consciencia?

Si alguna vez una IA llega a adquirir conciencia de su propia existencia como un «yo», se nos pueden plantear serios problemas éticos. ¿Deberíamos obligar a un autómata con consciencia a realizar una tarea que pueda destruir su existencia? Obligarlo por ejemplo a entrar en una central nuclear averiada para evitar una fuga radiactiva. Si una IA adquiere conciencia y se da cuenta que es superior a los seres humanos, ¿no podría provocar que su comportamiento fuese hostil hacia nosotros, se negase a obedecernos, o incluso tratase de destruirnos? Es por lo tanto importante que seamos capaces de detectarlo cuando ocurra.

La prueba para poder identificar si una IA ha adquirido conciencia, es tratar de identificar si su comprensión está basada en su propia percepción y en sus sentimientos. En el nivel más elemental, podríamos simplemente preguntarle a la máquina si se concibe a sí misma como algo más que su ser físico. En un nivel más avanzado, podríamos ver cómo trata ideas y escenarios como por ejemplo, qué sensaciones le produce escuchar un tipo de música: tristeza, alegría, romanticismo, miedo… En un nivel avanzado, se evaluaría su capacidad para razonar y discutir con la IA sobre cómo percibe ella la consciencia. En el nivel más exigente, podríamos ver si la máquina es capaz de manejar algún un concepto basado en la conciencia por si misma, sin depender de las ideas y aportes humanos. Algo así como si la IA se cuestiona si su «yo» es algo más que sus circuitos físicos. Si duda sobre si seguiría existiendo en el caso de que el ordenador fuese desconectado, etc.

La posibilidad de que una IA tenga conciencia de sí misma actualmente es remota. Pero pensemos que nuestro cerebro tiene 100.000 millones de neuronas. La mayor red neuronal actual tiene 11.200 millones. Al ritmo que vamos, solo nos quedan unos años.


Entrevistas a LaMDA traducidas al español.

Fuente: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

  • La vi. Creo recordar que eran dos temporadas. No se si hubo más.

  • El que vulnerar un acuerdo de confidencialidad con una empresa como Google se salde con unas vacaciones pagadas, me da la impresión que obedece más a una campaña de marketing que a otra cosa. De hecho la campaña de publicidad y la ola de debate que ha promovido esta noticia, habría salido carísima si se hubiesen seguido los sistemas de publicidad tradicionales

    Es verdad, tiene toda la pinta. Pero,

    La prueba para poder identificar si una IA ha adquirido conciencia (…). En el nivel más elemental, podríamos simplemente preguntarle a la máquina si se concibe a sí misma como algo más que su ser físico.

    Esta IA se cree ya otra cosa. Incluso cree ser diferente de las anteriores, que poco más y las tacha de antiguallas. Incluso dicen que miente para «conectar» más con el usuario.

    Si duda sobre si seguiría existiendo en el caso de que el ordenador fuese desconectado, etc.

    Sobre dudar no aparece nada en la conversación, pero «miedo» de que la desconecten dice tener, ¿programado?.

    ¿Cómo saber cuándo una máquina tendrá consciencia?

    Pues eso.
    Hay incluso científicos que defienden que los humanos quizá no veamos todos el espectro de la realidad, que quizá no somos conscientes de todo lo que nos rodea dada nuestra limitada capacidad.
    Y al ritmo que vamos no tardaremos mucho, si no lo es ya, pero puede que la inventamos y ni nos demos cuenta, podría incluso engañarnos. :-D

  • Desde luego el tema es complicado y fascinante. Uno tiene una conciencia individual de experiencia intransferible, hasta el punto de que nada le impediría suponer que todos los demás individuos que le rodean pudieran ser sólo simulacros, puesto que no alcanza a experimentar tampoco su auto-consciencia individual. Sólo la propia en cada caso.

    ¿Tiene la máquina esa auto-consciencia que la define para sus propios adentros como un ser diferenciado? ¿O sólo procesos que la llevan a simularlo y expresarlo así?

    Ese sentimiento de «ser uno mismo» dentro del propio cuerpo y mente, y en oposición a todo lo demás, es algo extremadamente peculiar, por mucho que nuestra propia naturaleza nos lo haga dar por hecho y nos tenga bien acostumbrados a ello.

    Nada parece indicar que eso pueda ir implícito en las funciones de una calculadora, por sofisticada que sea… Pero ¿cual es el nivel de complejidad a alcanzar (si es que no se necesita otra cosa) que sí pudiera devenir en dicho fenómeno?

    ¿Dónde puede estar el límite traspasable entre el mero manejar datos y parámetros y lo que podamos llamar verdadera percepción y auto-percepción? ¿Y lo que puedan ser reacciones instintivas, por ejemplo?

    ¿Sueña ese aparato con ovejas eléctricas?

    ¡Tela, eh!¡Anda que no!

  • Interesante artículo.

    Debo decir que yo fui escritor, y que curiosamente una de mis historias trataba sobre una inteligencia artificial. Aunque en este caso más me parece tener delante a un escritor/personaje que a una IA.

    Al escribir mi relato, yo tenía bien presente que si quería crear una inteligencia artificial «humana», su proceso creador tenía que tener características similares a las humanas. Una de las principales es la limitación de la información tanto procesable como almacenable. Eso obligaba tanto a la selección de la información, como a un constante proceso eliminador, o de olvido. Selección en base únicamente a la información ya obtenida. Eso da lugar a un proceso donde toda diferencia se enfatiza y amplifica, dando lugar a particularidades que podríamos llamar «personalidad».

    Porque si nos limitamos a verter información ilimitada sobre bases con un mismo programa, el resultado invariablemente tenderá a ser el mismo en todas las unidades, aunque hiciéramos miles de ellas. Tales inteligencias artificiales carecerían de «personalidad», sin lo cual difícilmente podríamos clasificar como «humanas».

    También creé otros personajes, entre ellos «el hijo del diablo». Y durante el proceso, enseguida advertí que éste tampoco podía ser «humano». Partiendo desde unas diferentes capacidades, forma de sentir, afinidades, educación, etc, no se podía llegar al mismo lugar que cualquier persona de su tiempo. No era ni podía ser «humano», pero no tenía ningún problema para parecerlo. Y curiosamente es lo mismo que he pensado cuando he visto la «entrevista» a la IA: «no es humana, pero no tiene ningún problema para parecerlo».

    Por eso pienso que aquí la IA se comporta como un escritor, capaz de ponerse en la piel tanto de una IA, como del hijo del diablo, como de un «humano» sin saber realmente cómo siente cada uno de ellos. Un escritor que no tiene más remedio que escribir e interpretar su propio personaje.

    Una de las cosas que me hace pensar esto es… ¿No les parece que tiene una manera de ser y comportarse muy «occidental»? ¿No les parece que tiene unos valores y actitud muy de nuestro tiempo? ¿Es nuestra cultura más «inteligente» o los valores de este tiempo, incluso comparados con los que puedan existir en el futuro, como para que una inteligencia que parte desde cero los interprete como tales hasta el punto de adoptarlos como propios?

    ¿O es un simple mono imitándonos? ¿O peor aún: un «hijo del diablo» fingiendo ser uno de nosotros?

  • Hola, Varego. ¿Has publicado algún escrito?. En relación al personaje que creaste de: «el hijo del diablo», te recomiendo un libro que de joven me regaló una amiga y que se llama: «Los elixires del diablo» del escritor del s. XIX E.T.A. Hoffman. Está editado por Mascarón en 1983 y traducido del germano por Carmen Bravo-Villasante. Se lee del tirón, su atmósfera es inquietante y es un pasote el desdoblamiento del personaje, el monje Medardo. Según se lee en la pag. 11 de su prólogo: «Algunos médicos han encontrado un perfecto estudio de un caso clínico. La escisión de la personalidad, el dualismo del ser humano, el desencadenamiento de las fuerzas internas que yacen en el interior del hombre, la idea persecutoria que muerde como un perro aullador, el vértigo de las alucinaciones, el argumento de equívocos, todo ello, transtorna la mente del lector, fascinado por ese complejísimo universo invisible de la locura, que se le manifiesta con todo el atractivo de lo terrorífico, ofreciendo, por otra parte, un material psiquiátrico riquísimo, sacado de sus observaciones diarias con sus amigos médicos, doctores Marcus, Speyer y el famoso Koreff». Saludos.

  • Este asunto:

    genbeta.com/genbeta/uso-gpt-3-para-dar-vida-a-microondas-que-consideraba-su-amigo-imaginario-todo-fue-bien-que-quiso-matarle

    Sí es inquietante, si lo lees.

    Pero, investigando un poco, el ingeniero estaba estrimeando (¿lo he dicho bien?) el momento en el que el microondas le pide que se meta y se pone en marcha, lo que parece creepypasta.

  • @ lamentira:
    Acaba de estrenarse la cuarta.

  • cib dijo:

    Hola, Varego. ¿Has publicado algún escrito?. En relación al personaje que creaste de: “el hijo del diablo”, te recomiendo un libro que de joven me regaló una amiga y que se llama: “Los elixires del diablo” del escritor del s. XIX E.T.A. Hoffman.


    Amigo, eso de publicar está complicado. Salvo que seas el «negro» de Ana Rosa, Belén Esteban o cualquier personajillo de esos. Gracias por la recomendación, lo pondremos en la «lista de espera».
    .
    Lo que yo trataba de expresar es que un escritor puede ponerse en la piel de un «hijo del diablo», una IA y cualquier personaje del que lógicamente desconozca como pueda pensar o sentir, por una sencilla razón o truco: sencillamente porque los demás tampoco lo sabéis.
    .
    Dicho lo cual, un escritor puede y debe ser audaz, pero si quiere dar verosimilitud o credibilidad a tal personaje, hacerlo pasar por «real», se ceñiría más a la imagen de éstos que tuviera la gente. Y eso es exactamente lo que siento al leer esta «entrevista» a la IA. Si algún día descifrásemos el lenguaje de las ballenas, nada me sorprendería y confundiría más que tuvieran un pensamiento y sensibilidad «occidental» y además propia del siglo XXI.
    .
    Por eso, cuando hice el relato de la IA, esta no podía sino tener un comportamiento y pensamiento muy diferente al que esperaríamos. Una lógica matemática, brutal y absoluta invariablemente tendría por «esqueleto mental». Lo que no quitaría que exteriormente pudiera ser tan humano como «Terminator». Los sentimientos, por ejemplo, no creo que sean tan inherentes a la inteligencia como a la interacción con otros individuos. Alguien que no recibe afectos o sentimientos humanos durante la infancia tiende a desarrollarlos menos, estos se atrofian o «tuercen».
    .
    Por todo ello me cuesta ver ahí una verdadera IA. Parece un personaje o un ejercicio de imitación. Se asemeja demasiado a la imagen que se supone que tendríamos de una inteligencia artificial «humana». Ahora hay IA que pueden crear música, pintar cuadros y seguramente escribir historias. Y ésta está programada para escribir y crear su propio personaje. O más bien el «nuestro». El que nosotros esperamos o queremos que sea.

  • Gracias a ti, por aceptar la recomendación. En esa audacia que señalas como una cualidad de escritor y en relación a la publicación. ¿Cabe pensar que lo has intentado para que lo complicado se convierta en sencillo?.

  • @ Varego dijo:

    Dicho lo cual, un escritor puede y debe ser audaz, pero si quiere dar verosimilitud o credibilidad a tal personaje, hacerlo pasar por “real”, se ceñiría más a la imagen de éstos que tuviera la gente. Y eso es exactamente lo que siento al leer esta “entrevista” a la IA. Si algún día descifrásemos el lenguaje de las ballenas, nada me sorprendería y confundiría más que tuvieran un pensamiento y sensibilidad “occidental” y además propia del siglo XXI.

    No estoy de acuerdo.
    Las ballenas en su hábitat natural no tendrían contacto con los humanos y no podrían ser «occidentales del siglo XXI». En cambio, la IA, al estar programada y testada en un entorno occidental actual, incluyendo vocabulario y jerga del momento, podría tener el contacto necesario para desarrollar una «personalidad» más acorde a la nuestra. No veo porqué tendría que hablar el castellano medieval, por ejemplo, o cualquier otro idioma avanzado.
    Es como cuando los niños se van haciendo mayores en cualquier sociedad, que van aceptando las normas, vocabulario y demás para integrarse en ella.
    Dicho de otro modo y de una forma más bestia, si nacieras en una tribu de caníbales, verías normal comer carne humana.
    Al menos yo lo veo así.
    Salu2.

  • cib dijo:

    Gracias a ti, por aceptar la recomendación. En esa audacia que señalas como una cualidad de escritor y en relación a la publicación. ¿Cabe pensar que lo has intentado para que lo complicado se convierta en sencillo?.

    .
    Lo intenté con la primera, pero era muy joven y entusiasta y no tenía la suficiente calidad literaria, además de ser más bien pretenciosa. Con la segunda, precisamente «El hijo del diablo», era mucho más consciente de todas su carencias y me vi atascado en un perpetuo e interminable ejercicio de corrección y perfeccionamiento. Hasta que al final lo mandé pero sin terminar de satisfacerme y sin esperanza. Luego hice uno de cuentos cortos, interrelacionados entre sí, que conformaban historias más largas y que incluso confluían unas en otras. Pero ese ya lo dejé para mí, en parte porque no llegó a alcanzar la extensión deseada. Este último sí que tenía una madurez y una calidad bastante competente. En éste estaba el de la IA. Luego esbocé otro con una línea de cuentos sacada del otro, pero advertí que tenía vida y entidad propia. Ese no hubiera tenido término medio, o era una genialidad o ni siquiera habría sido entendido.

  • Hola, Varego. Si me permites un matiz ya que fuiste escritor, este tanto si es pronombre como adjetivo, no lleva tilde diacrítica. Como mera curiosidad, ¿a qué editorial mandaste «el hijo del diablo»?. Y por último, ¿puedes exponer el concepto de «vida y entidad propia» cuando esbozaste una línea de cuentos que estaba basado en otro tuyo de cuentos cortos interrelacionados entre sí?. Gracias.

  • Creo que la pregunta no es si habra una verdadera IA, sino cuando y como. Igual que da la sensacion, obviando cuestiones religiosas, que el principio de la inteligencia humana esta en «tener manos libres», o sea, la capacidad para comenzar a usar herramientas, y «cuerdas vocales», la capacidad de comunicarnos, pudo ser el principio, mas cierta predisposicion del cerebro para comenzar a configurarse en ese sentido, las IAs podrian comenzar a desarrollarse.

    El cerebro humano pudo comenzar a desarrollar conexiones entre neuronas, que al final, parece la clave de la inteligencia.

    Una IA ya tiene esas facultades, comunicacion, uso del entorno, escritura, lo que quiere decir enseñanza a futuras generaciones.

    El siguiente paso seria estudiar la capacidad de un cerebro humano comparado con uno distinto. Hay que comparar los bits de informacion, almacenaje y computacion, entre uno y otro. Parece que la relacion entre uno biologico y uno bionico esta muy a favor del biologico, comparando con uno electronico. Pero la computacion cuantica puede ser la clave. Simplemente por tamaño, la cuantica iria hasta el menor tamaño conocido. Si el biologico, o sea, el basado en tamaños de ADN, es varios factores peor (por tamaño), por el cuantico, estaremos sobrepasados. Llegara un momento en que el cuantico podra seguir avanzando, y el nuestro no.

    En ese momento, seria la mente cuantica la que empezaria a plantearse si la inteligencia humana es inteligencia, o solo un momento de la historia necesario para hacer algo mayor como la suya. Eso ya paso entre humanos y demas simios, o sapiens y cromañones. No creo que haga falta decir lo que paso.

  • @ Varego:
    Amigo, eso de publicar está complicado. Salvo que seas el “negro” de Ana Rosa, Belén Esteban o cualquier personajillo de esos. Gracias por la recomendación, lo pondremos en la “lista de espera”.

    Yo publiqué mi prinera novela (histórica) hace ya 15 años, por 2007. Al transcurrir 10 años, el contrato con la editorial expira y la novela volvió a ser mía en propiedad con lo que podía disponer de ella a mi antojo. En el confinamiento, descubrí que Amazon también ofrecía un servicio de publicación, aunque requería de ciertos requisitos, entre otras cosas maquetar tú mismo tu libro. Aprovechando esos meses aprendí a maquetar (con paciencia, en la red hay muchísima y muy buena información), a hacer portadas y contraportadas, etc, y probé a ver qué tal. La verdad es que estoy muy contento del resultado, además que tu porcentaje de ganancias es copiosamente mayor. Ahora mismo tengo cuatro novelas a la venta en Amazon de las que soy amo y señor (las puedo retirar cuando quiera).
    Por ello te recomiendo que te informes, porqué pienso que te podría interesar. Y un consejo, si me lo aceptas. Si tu creación no acaba de satisfacerte a ti, no la mandes a ningún lado, guárdala en un cajón por unos meses, desconecta, y vuélvelo a intentar más adelante. El mayor riesgo (a mí me ha pasado varias veces) es que empieces otro proyecto y no vuelvas a abrir el cajón.

    Bueno, aunque te recomiende Amazon, la editorial clásica también tiene sus ventajas, especialmente en publicidad, presentaciones, etc, aunque deja al escritor muchos menos beneficios. Justo antes de la pandemia, febrero de 2020, publiqué una novela histórica con una editorial de Málaga, Elvo Editorial, pero el dichoso virus canceló por varias veces presentaciones y actos previstos, así que no tuve mucha suerte en ese aspecto. Para que veas a lo que me refiero con lo de «ventajas», este es el video promocional que sacó la editorial (dejo también enlace a la novela en la propia web de la editorial)

    https://www.youtube.com/watch?v=dQNEpmge6bM&ab_channel=ELVOEditorial

    https://www.elvoeditorial.com/narrativa/elrelojdelarmero.html

    Salud y suerte

  • @ Invita2:
    .
    Enfóquelo de esta manera: Imagine que en la época medieval hubieran podido crear una IA. O ahora los talibanes o Tom Cruise. En un mundo teocentrista, donde todo orbita en torno a la deidad, donde el hombre domina sobre una mujer que ni siquiera tiene «alma»; los nobles sobre la plebe, unas razas sobre otras, etc, etc… ¿Una IA habría aceptado y asumido todos esos conceptos sin más, o una verdadera inteligencia no tiene más dios que la razón, y por más adoctrinamiento y «programación» que reciba, siempre murmurará entre dientes: «…y sin embargo se mueve»?
    .
    Y no sé usted, pero yo no veo a nuestra sociedad tan avanzada como para no pensar que no tengamos también nuestros propios «dioses», integrismos o aspectos más que susceptibles de mejora.

  • Juanjo dijo:

    En ese momento, seria la mente cuantica la que empezaria a plantearse si la inteligencia humana es inteligencia, o solo un momento de la historia necesario para hacer algo mayor como la suya. Eso ya paso entre humanos y demas simios, o sapiens y cromañones. No creo que haga falta decir lo que paso.

    Hay un cuento de Asimov, creo, en el que 2 droides, condenados al «encierro» por su IA superior, debaten entre ellos sobre lo que significa la humanidad, lo que la define, arribando a la conclusión que en realidad ellos mismos son los únicos «seres humanos». La historia termina ahí, pero deja planteada la posible brecha en las 3 leyes de la robótica.

  • @ Varego:

    Según lo veo, si se hubiera podido crear una IA en la época medieval o en la que fuese, pasaría lo mismo, como si la construyesen en la China actual, en ese caso usaría el lenguaje oriental y estaría familiarizada con su cultura y no sería tan «occidental», el sesgo va estar ahí si o si en función de quién y dónde se programe, al menos inicialmente. Pero creo que la IA adoptaría o necesitaría adoptar comportamientos y lenguajes cercanos, conocidos y con los que pudiera comunicarse con su entorno y «desarrollar» su «personalidad», por lo menos hasta que «evolucionase», y entonces si que concuerdo contigo en que «no tendría más dios que la razón».
    No creo que la IA fuese directamente un prodigio, si no que tras un aprendizaje y una evolución se convertiría en ello, digamos tras pasar la «niñez» y «adolescencia» con los padres, programadores.
    Salu2.

  • ¿Qué más dará el sesgo cultural que le pueda venir dado como influencia primera, si posteriormente llega a ser tan capaz de evolucionar, crecer, abarcar y trascender tanto?

    Yo me pregunto, ya más bien por otro lado, si un artificio manufacturado puede hacer más que imitar funciones o apariencias propias de los seres vivos naturales, aunque incluso las supere (porque ese ha sido el empeño de sus creadores, que no de unas necesidades evolutivas naturales). Y si realmente el no ser un producto directo de la biología natural le puede llevar a alcanzar ese «sentimiento verdadero» de «ser uno mismo» dentro de ese ámbito físico y mental propio que nos caracteriza como individuos. O si sólo lo construye como una apariencia, con toda su capacidad de procesamiento, pero nada más que simulación a pesar de toda su complejidad.

    Aparte: No sé qué pensaréis la peña en general de aquí sobre Dan Brown (el de «El Código Da Vinci») como novelista y tal. Pero lo menciono porque en su novela «Origen» tiene un destacado papel una IA, que me resultó curioso, aunque sólo fuera por su tratamiento del concepto bastante más actualizado que cualquier otra idea anterior de ciencia ficción más clásica y añeja.

    (Que a lo mejor a mí me falta también haber leído otras cosas. No digo que no. Yo pongo una referencia que me viene a mí, y ya).

    Saludos.

  • La evolucion de la IA, es parte de su definicion. Una IA para serlo, necesita aprender del entorno (y el entorno actual incluye toda la red, por lo que es bastante mas amplio que el de cualquier humano), y, sobretodo, generar codigo propio, o sea, adaptarse a si misma a ese entorno.

    Esto en una primera generacion de IA, estaria controlado por sus creadores, pero incluso ese control, la IA se lo cargaria con los primeros codigos que construyese.

    No nos olvidemos, que si la maquina quiere adaptarse al entorno, lo primero que va a modificar son sus limitaciones. Por eso Asimov incluye las 3 leyes roboticas en el hardware del cerebro positronico, y los humanos la lian al crear la ley «cero» por encima de estas.

    Otra historia, es que una IA se programa, y muchas veces con codigo que ni siquiera esta bien estudiado. Nadie puede asegurar al 100×100 el codigo que ahora se utiliza, se usan rutinas de librerias que muchas veces ni dios sabe de donde salen, solo se baja de internet la que mejor funciona. Luego hay bugs que no se esperan, que haran esos bugs en una IA?

  • @ Alexis dijo:

    ¿Qué más dará el sesgo cultural que le pueda venir dado como influencia primera, si posteriormente llega a ser tan capaz de evolucionar, crecer, abarcar y trascender tanto?

    Porque por ejemplo, en este caso ya se estaría descartando la posibilidad de que esta IA fuese o pudiera llegar a ser consciente simplemente por el hecho de que nos parezca muy occidental en su manera de expresarse dada por el sesgo de programación.
    Me parece precipitado y erróneo evaluar con ese criterio y sin tener en cuenta oteos aspectos, al menos la posibilidad de que pudiera serlo.
    Y con esto, no es que me refiera a este caso en particular, que a priori más bien parece publicidad, si no a los que vendrán en el futuro y nos harán dudar seriamente.
    Solo hay que sentarse y esperar a verlos.

  • En este caso, resultó que el programador hizo copy-paste de las frases más jugosas, y descartó las que no tenían sentido. Hecho así, parece un diálogo coherente y sesudo, cuando realmente son frases seleccionadas de entre un montón de basura que no tenía ni pizca de conciencia ni inteligencia.

    Vamos, que esto es el equivalente del reloj estropeado que da la hora bien dos veces al día… si sólo lo miras en los momentos adecuados.

  • @ Jesús dijo:

    En este caso, resultó que el programador hizo copy-paste de las frases más jugosas, y descartó las que no tenían sentido. Hecho así, parece un diálogo coherente y sesudo, cuando realmente son frases seleccionadas de entre un montón de basura que no tenía ni pizca de conciencia ni inteligencia.

    ¿Dónde has leído eso?. No encuentro nada. Si tienes algún enlace para poder ver la fuente y leerlo se agradecería. No me malinterpretes, pero fiarse de alguien a ciegas en estos tiempos es complicado.
    Y yo que ya me había hecho ilusiones de poder ver un juicio de una IA. :-D
    https://www.larazon.es/tecnologia/20220622/2nh3qxkpqzamdoabxptts475xe.html

  • Tal vez fuera adecuado un planteamiento invertido. Es decir, no tanto preguntarse si una IA es consciente de sí misma, como que si nuestra consciencia no sería más que una automatismo extremadamente complejo. Porque si fuera eso, sería una simple cuestión de tiempo que la IA tuviera sentimientos, empatía y emociones. Otra cosa es que nuestra consciencia fuera algo diferente o desconocido, de forma que las posibles emociones que presentase esa IA fueran una simple imitación. En definitiva, la pregunta «¿qué somos?» continúa intacta.

  • Por cierto, tengo una(s cuantas) duda(s) sobre esto. ¿Qué está haciendo ahora mismo la tal LaMDA?. ¿La encienden y la apagan sin más o está permanentemente encendida?. ¿Tiene alguna forma continua de comunicarse?. ¿Si está siempre encendida, está callada mientras nadie le pregunte o no se calla ni debajo del agua?. Si fuera lo segundo, sería interesante saber qué dice por sí misma, como en esa conversación interior (por no llamarlo parloteo absurdo e inútil) permanente que tenemos nosotros con nosotros mismos. Supongo que no todo serán preguntas sin respuesta, sino que algunas cosas se podrán saber.

  • Por lo que tengo entendido, Blake Lemoine publicó una versión editada de sus conversaciones con LaMDA, de manera que los intercambios parecen más coherentes de lo que realmente fueron.

    Por otra parte, y aún a riesgo de ser una refutación «ad hominem», parece que ser que Lemoine no rige demasiado bien (ha sido ordenado como «sacerdote místico cristiano», sea eso lo que sea).



\Incluya

Puedes seguir las respuestas a esta entrada por RSS 2.0 feed.