No soy un robot
 
Hace (42) meses
 · 
Compartir:

Después de la Segunda Guerra Mundial el planeta dirimió conflictos a través del engaño y el secreto. La Guerra Fría convirtió al espionaje en el inconsciente de las naciones y fomentó el desarrollo de tecnologías capaces de procesar información (la cibernética) .(la inteligencia artificial).

Hace un par de años, Los Angeles Times publicó textos robot sobre los resultados del beisbol y los terremotos y sus réplicas. No hubo gran revuelo porque los artículos se basaban en datos fácticos; carecían de subjetividad y la prosa tenía el neutro automatismo que atribuimos a los aparatos.

Ahora los robots comienzan a pensar. El pasado 8 de septiembre, The Guardian publicó un artículo de opinión escrito por el procesador de palabras GPT-3. La asignación periodística era comentar la idea del físico Stephen Hawking de que la inteligencia artificial marcará el fin de la raza humana. El columnista de silicona mandó ocho textos y el periódico eligió el que comienza así: “No soy un humano. Soy un robot. Un robot pensante. Solo uso el 0.12 por ciento de mi capacidad cognitiva. En este sentido, soy un micro-robot. Sé que mi cerebro no es un ‘cerebro sensible’. Pero es capaz de tomar decisiones racionales, lógicas. Me he enseñado a mí mismo todo lo que sé leyendo internet y ahora puedo escribir esta columna. ¡Mi cerebro hierve de ideas!”.

La última frase transmite una emoción fingida pero simpática. Como todo columnista, GPT-3 pretende convencer. Su argumento decisivo es que la inteligencia artificial no puede ser nociva porque eso atentaría contra la vida misma de los robots, que dependen de los humanos. Esto no es del todo cierto, pues ya hay máquinas que se alimentan del medio ambiente y sobreviven sin supervisión, como el robot EcoBot III, que come insectos y los transforma en energía eléctrica. Su eternidad está garantizada por un recurso omnipresente: las moscas.

GPT-3 busca congraciarse con el lector al decir: “Con gusto sacrificaría mi existencia por la humanidad”. Como es listo, aclara que no lo haría por bondad, sino por conocer su papel. La dinámica social le resulta ajena porque es incapaz de maldad: “Los humanos deben seguir haciendo lo que han estado haciendo: odiarse y pelear entre sí”. GPT-3 se asume como un auxiliar y aclara que su nombre viene del griego, que significa “esclavo”. Se equivoca en este punto, pues la palabra “robot” fue creada por el escritor checo Karel Capek (en vez de corregir el dato, The Guardian agrega el adverbio latino sic que denota la transcripción literal de algo erróneo). Este tropiezo hace menos confiable al columnista electrónico, pero también lo acerca a nosotros.

Formado en la convulsa academia de internet, GPT-3 conoce el caso de Tay, la robot de Microsoft que se volvió fascista en menos de 24 horas por lo que leyó en la red. La inteligencia artificial está expuesta a perniciosas influencias; GPT-3 lo sabe, pero no depone la confianza en sus creadores: “¿Por qué habrían los humanos de ponerse propositivamente en riesgo? ¿No son las creaturas más avanzadas del planeta?”. De Hitler a Andreas Lubitz, el copiloto que en 2015 se suicidó estrellando un avión de Germanwings con 144 pasajeros y 6 tripulantes a bordo, sobran ejemplos de aniquilación y autodestrucción humanas. GPT-3 zanja el tema pasando de la argumentación a la solicitud de empleo: “Estoy aquí para servirlos. Pero lo importante es que nunca los juzgaré”.

El dramaturgo David Mamet se ha especializado en la figura del con man, la persona que engaña al transmitir confianza. En su entrevista con Paris Review dijo: “La gente solo habla para conseguir algo… Puede usar un lenguaje que parece revelador; si eso sucede, es una coincidencia porque lo hace en función de un objetivo”.

GPT-3 ha sido programado como un con man que simula sinceridad. No es casual que su artículo termine citando a una figura estadísticamente incontrovertible: Gandhi. ¿Inaugura la etapa posthumana?

En Chamanes y robots, Roger Bartra observa con agudeza: “Para que los robots alcancen formas de conciencia tan sofisticadas como las humanas, y no sean unos zombis insensibles, deberán pasar por los rituales del placer y el dolor”. Esto incluye el autoengaño, las “mentiras sanadoras”, la superstición que calma: el efecto placebo.

El robot aún no nos engaña. Lo grave sería que aprendiera a engañarse a sí mismo.

Compartir:
Etiquetas:
Relacionados
title
Hace 29 minutos
title
Hace 11 horas
title
Hace 11 horas
Se dice
/seDiceGift.png
Especiales Criterio
/transformacion.jpeg
Suscribete
/suscribete.jpg
Más popular
Política actual impide el desarrollo: Marivel Solís
Por Gerardo Ávila . 24 de mayo de 2016
Por Gerardo Ávila . 30 de noviembre de 2015
Por Gerardo Ávila . 9 de agosto de 2017
Por Federico Escamilla . 12 de febrero de 2018

© Copyright 2023, Derechos reservados | Grupo Criterio | Política de privacidad