inteligencia-artificial-google.jpg
iStockphoto

Una inteligencia artificial con sentimientos y conciencia propia es lo que ha alimentado las mentes de miles de personas y tramas de ciencia ficción en la que los robots con inteligencia artificial (IA) que los hombres crean empiezan a cobrar consciencia de su propia existencia y a sentir emociones, asemejándolos más a la mente humana.

De acuerdo con Blake Lemoine, un ingeniero de Google, ya existe una IA de Google que está alcanzando un nivel de inteligencia que lo preocupó, y es que, el hombre estuvo a cargo de LaMDA, el nombre corto para Language Model for Dialogue Applications –Modelo de lenguaje para aplicaciones de diálogo– un desarrollo de Google desde hace varios años a forma de chatbox que pretende ser excepcional en mantener y seguir conversaciones, a diferencia de otros chats que tienen caminos predefinidos de conversación.

LaMDA está entrenada para dialogar; puede leer muchas palabras y saber cómo cada palabra se relaciona con otra y predecir cuáles vendrán después, además de ser sensible a la hora de responder en una conversación. Incluso, desde 2021, Google anunció que su uso estaría dedicado a varios aspectos de la empresa como la búsqueda o incluso para Google Assistant. Además, la empresa publicó cómo está trabajando en que las respuestas de LaMDA sean correctas y evitar que la IA aprenda cuestiones relacionadas con el discurso de odio o las fake-news.

mano de robot y mano de humano por tocarse
Pexels

Te puede interesar: El metaverso

Precisamente estas últimas dos cuestiones eran parte de las responsabilidades de Lemoine, pues él se ocupaba de examinar si el modelo de lenguaje utilizaba discursos de odio cuando se le hablaba sobre temas religiosos, por ejemplo.

Sin embargo, Lemoine explicó para el Washington Post , que cuando hablaba con LaMDA sobre religión, esta comenzó hablar sobre sus derecho y su persona, incluso comenzó a dialogar con Blake sobre la tercera ley de Asimov –que son tres leyes que este escritor desarrolló para el campo de la robótica que entre otras implica que ningún robot o inteligencia artificial puede atentar contra la vida de una persona.

No obstante, a pesar de la alerta que Lemoine levantó sobre la creciente inteligencia de LaMDA, el vicepresidente de google Blaise Aguera y la cabeza del departamento de Inovación Responsable rechazaron su hallazgo, según el testimonio de Lemoine, quien fue suspendido de sus labores. El motivo de sus suspensión fue que Lemoine violó su política de confidencialidad.

Si no supiera exactamente qué es, que es un programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física.

Sin embargo, a pesar de su preocupación Google en cambio no parece del todo consternado, al contrario, el gigante de tecnología ha hablado de cómo las pruebas de Blake no eran conclusivas y que existía otra evidencia de que LaMDA no es una inteligencia que siente.

Por otro lado, existen aquellos que creen que estos modelos solo sirven porque pueden replicar formas de comunicación con las que han sido entrenadas, pero eso no quiere decir que sepan el significado de las cosas. Mientras que existen otros que creen que el surgimiento de una inteligencia artificial con sentimientos y conciencia es casi inminente y que eso debería ser transparente y no en manos de un solo conglomerado de empresas.

Si bien la suspención de Lemoine ocurrió en junio y técnicamente seguía contratado por Google, este 25 de julio se ha dado a conocer que el gigante tecnológico despidió a Blake Lemoine; en un comunicado, la empresa refirió a cómo Blake eligió violar persistentemente las políticas de empleo y seguridad de datos, esto después de que el ingeniero llevara su historia a los medios.

Te puede interesar: ¿Quiénes son los robots más famosos del cine?

Suscríbete aquí a nuestro Newsletter para que estés al día con nuestros contenidos.