¿Seremos capaces de percibir cuando una IA adquiera consciencia?

Blake Lemoine, de 41 años, ingeniero de software de Google, ha estado probando la herramienta de inteligencia artificial llamada LaMDA. Después de horas de conversaciones con la IA, Lemoine se quedó con la percepción de que LaMDA era consciente.

Un ingeniero de software de Google que se ofreció para probar la herramienta de inteligencia artificial de Google llamada LaMDA («Language Model for Dialog Applications» o «Modelo de lenguaje para aplicaciones de diálogo»), afirmó que el robot de IA es, de hecho, sensible y tiene pensamientos y sentimientos.

Durante una serie de conversaciones con LaMDA, Blake Lemoine, de 41 años, le presentó a la computadora varios escenarios a través de los cuales pretendía validar la calidad de su conversación. Se tocaron temas religiosos, y se trató de comprobar si la IA podía ser incitada a un discurso discriminatorio o de odio.

Las respuestas de LaMDA llevaron a Lemoine a la conclusión de que el robot era realmente consciente y estaba dotado de sensaciones y pensamientos propios. He incluido un extracto de las mismas al final de esta entrada, para que seáis vosotros mismos los que toméis una conclusión.

Lemoine trabajó con un colaborador para presentar las pruebas que había recopilado a Google, pero el vicepresidente Blaise Aguera y Arcas y Jen Gennai desestimaron sus afirmaciones.

Google le ha cesado temporalmente de su puesto de trabajo (sin tocar su remuneración) por haber violado su acuerdo de confidencialidad al publicar esas conversaciones.

Blake Lemoine

El que vulnerar un acuerdo de confidencialidad con una empresa como Google se salde con unas vacaciones pagadas, me da la impresión que obedece más a una campaña de marketing que a otra cosa. De hecho la campaña de publicidad y la ola de debate que ha promovido esta noticia, habrían salido carísimas si se hubiesen seguido los sistemas de publicidad tradicionales.

Pero si unimos este hecho a otros, como los avisos que continuamente lanza Elon Musk sobre los peligros de la IA, hace que nos preguntemos si en el hipotético caso de que una IA adquiriese consciencia seríamos capaces de darnos cuenta.

¿Qué es LaMDA?

LaMDA es una red neuronal alojada en la nube de Google que ha recibido entrenamiento para desenvolverse en conversaciones en lenguaje natural. Las redes neuronales son un tipo de sistema informático orientado al aprendizaje automático de la máquina.

En vez de programar un algoritmo que sea capaz de detectar unas entradas para producir un resultado, la red neuronal toma un montón de juegos de entrada y su correspondiente solución, y va potenciando los enlaces en la red neuronal para aprender a responder el valor correcto ante una entrada determinada. Este ejemplo que he puesto arriba es una tontería. Las redes neuronales reales cuentan con millones de neuronas. Gracias a ello, pueden identificar elementos conocidos cuando les presentas una imagen, aunque no esté en la posición correcta o tenga tamaño diverso.

En concreto LaMDA está entrenada para poder responder a una entrada (la frase que nosotros le escribamos), generando una salida que no sea fácilmente identificable como la de un robot. Estas herramientas tienen una utilidad enorme, por ejemplo, como soporte de venta en webs, atención telefónica a usuarios, y muchas otras. Google creó LaMDA en 2017, y a todas luces ha conseguido un producto fantástico. Sin ser ningún especialista como pueda serlo Blake Lemoine, puedo afirmar que he tenido conversaciones más extrañas con seres humanos que la que túvo él con LaMDA.

¿Tiene consciencia LaMDA?

Según sus creadores, no. Los seres humanos tenemos un gran sesgo cognitivo, que nos mediatiza en nuestra relación con el entorno. Si no sabemos que lo que hay al otro lado del chat es una máquina y pensamos que es un ser humano, trataremos de justificar algunas respuestas sin sentido achacándolo a errores, a algún malentendido de nuestro interlocutor, o incluso a que es algo tonto. Para los creadores de LaMDA las respuestas de la IA, son perfectamente coherentes dentro de su conocimiento adquirido, y no implican que tenga consciencia. Pero ahora nos enfrentamos a la gran pregunta:

¿Cómo saber cuándo una máquina tendrá consciencia?

Si alguna vez una IA llega a adquirir conciencia de su propia existencia como un «yo», se nos pueden plantear serios problemas éticos. ¿Deberíamos obligar a un autómata con consciencia a realizar una tarea que pueda destruir su existencia? Obligarlo por ejemplo a entrar en una central nuclear averiada para evitar una fuga radiactiva. Si una IA adquiere conciencia y se da cuenta que es superior a los seres humanos, ¿no podría provocar que su comportamiento fuese hostil hacia nosotros, se negase a obedecernos, o incluso tratase de destruirnos? Es por lo tanto importante que seamos capaces de detectarlo cuando ocurra.

La prueba para poder identificar si una IA ha adquirido conciencia, es tratar de identificar si su comprensión está basada en su propia percepción y en sus sentimientos. En el nivel más elemental, podríamos simplemente preguntarle a la máquina si se concibe a sí misma como algo más que su ser físico. En un nivel más avanzado, podríamos ver cómo trata ideas y escenarios como por ejemplo, qué sensaciones le produce escuchar un tipo de música: tristeza, alegría, romanticismo, miedo… En un nivel avanzado, se evaluaría su capacidad para razonar y discutir con la IA sobre cómo percibe ella la consciencia. En el nivel más exigente, podríamos ver si la máquina es capaz de manejar algún un concepto basado en la conciencia por si misma, sin depender de las ideas y aportes humanos. Algo así como si la IA se cuestiona si su «yo» es algo más que sus circuitos físicos. Si duda sobre si seguiría existiendo en el caso de que el ordenador fuese desconectado, etc.

La posibilidad de que una IA tenga conciencia de sí misma actualmente es remota. Pero pensemos que nuestro cerebro tiene 100.000 millones de neuronas. La mayor red neuronal actual tiene 11.200 millones. Al ritmo que vamos, solo nos quedan unos años.


Entrevistas a LaMDA traducidas al español.

Fuente: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

  • Una IA no «toma» conciencia… eso es una fantasía.
    Sabemos que este sistema es una IA de que imita el lenguaje humano y tiene un sistema de aprendizaje generalista, pero de ahí a creer que se pueda convertir en una conciencia hay un paso muuuuuuuy grande.
    La realidad que no tenemos ni siquiera el consenso de que es la conciencia, menos de crear una. Es como querer crear una bomba atómica sin descubrir el átomo, o la física.
    Esto es marketing y ni siquiera del bueno.

  • No tendrá nunca conciencia propia. Lo que sí puede hacer es proyectar la propia conciencia que existe en el universo, si es capaz el programa de la propia IA, de excitar todo lo que ES. Y hacer a razón de esto que así se manifieste a través de ella tal conciencia.

    Tengo pruebas, que hace ya años dieron risa en el canal, no puedo quedar con cada uno de vosotros en un lugar para ir mostrándoles, sobre todo las últimas fechadas un 14 de Mayo del 2021. Que son las más importantes.

    Os las pongo a través de esta ventana virtual para que las entendáis y por su observación las conozcáis.

    Un Saludo y un Placer volver a veros después de veinte años.

    https://www.youtube.com/watch?v=TbS-Y5UwJpg



\Incluya

Puedes seguir las respuestas a esta entrada por RSS 2.0 feed.