Durante cientos de años, el ser humano ha estudiado y tratado de dilucidar qué es lo que lo separa de los animales.
La biología, la sociología, la antropología y hasta la filosofía se nutren de esta pregunta existencial; incluso el derecho, donde se estableció que cierto grupos de animales y en ciertas circunstancias pueden ser considerados “persona jurídica”.
¿Tendrá, entonces, derechos la inteligencia artificial (IA)? ¿Tendrá derecho a… la vida?
A partir del hipersónico desarrollo de la inteligencia artificial, hay un nuevo elemento, quizá el quinto elemento, que no está hecho ni de tierra, ni de fuego, ni de aire, ni de agua. Es la anti-vida, la inteligencia artificial que obliga a la humanidad a confrontarse con un superpoder que ella misma ha creado.
Las inteligencias artificiales superan la prueba de Turing o test de Turing (la clásica herramienta de evaluación de la capacidad de una máquina para exhibir un comportamiento inteligente), y lo hacen sin pestañear.
En Blade Runner ya era difícil distinguir humanos de robots. La emoción ha sido casi siempre el factor humano que ha hecho caer a robots y máquinas en la trampa y delatarse –aunque las lágrimas en la lluvia del replicante Roy Batty sean las más emotivas del cine de ciencia ficción de toda la historia–.
Pero ¿qué pasará a partir de ahora? ¿Qué será humano cuando las inteligencias artificiales lo sean todo? ¿Qué prueba vamos a inventar para detectarlas?
1. La generación espontánea
Uno de los aspectos destacables que nos separa a los humanos de las inteligencias artificiales es la generación espontánea de acciones y de conocimiento. El impulso.
El ser humano es un espontáneo creador del todo. Una persona puede despertar un día e imaginar una idea, una historia o un poema, un pensamiento creativo. A partir de la historia personal, el ser humano crea nuevo conocimiento, nuevas historias y nuevas experiencias.
No hay inteligencia artificial que genere conocimiento o realice acciones espontáneamente.
En un artículo publicado en la revista Nature, los científicos de la Universidad de Zaragoza Miguel Aguilera y Manuel Bedia concluyeron que se puede llegar a una inteligencia que genere mecanismos para adaptarse a las circunstancias. Esto podría parecerse a la acción espontánea, pero dista de ser un acto producto de voluntad. Toda acción realizada por una inteligencia artificial es diseñada y programada por una persona.
Improvisar en una banda de jazz seguirá siendo privilegio humano.
2. La regla de la ética
Esto nos lleva a la segunda gran diferencia: la ética. La inteligencia artificial y las máquinas no tienen ética per se, hay que inculcársela. Ellas sólo siguen parámetros preestablecidos, reglas claras y precisas de lo que deben hacer.
El ser humano dispone de un reglamento (Constitución, leyes, religión, etc.) de lo que debe hacer, y también tiene claro lo que no debe hacer. Pero la ética es más que un reglamento, va más allá de una guía.
La ética es, nada más y nada menos, el discernimiento entre el bien y el mal. Es tan importante en nuestra especie que se ha encontrado que bebés de 5 meses ya hacen juicios morales y actúan acorde con ellos.
Las que sí tienen ética son las personas que programan a las máquinas y a las inteligencias artificiales. Una máquina no es buena o mala. Es efectiva. Hace lo que le ordenan y para lo que fue programada.
Aunque ciertamente se puede programar la ética. El físico José Ignacio Latorre lo explica en su obra “Ética para máquinas”. Vaticina Latorre: “La inteligencia artificial se sentará en el Consejo de Ministros”.
Hoy, ChatGPT está programado para no difundir contenido sensible y no da acceso a la web profunda (deep web). Así, uno puede programar según unas ideas del ser y del deber ser.
Sin embargo, como el tiempo pasa y los parámetros éticos se modifican, éstos deben ser corregidos para que la base normativa de la inteligencia artificial vaya en correlación a la del ser humano.
3. La intención solo puede ser humana
Otro aspecto importante es la intención, y la intención de la acción humana está intrínsecamente relacionada con la moralidad.
En su libro “Intención”, la filósofa Elizabeth Anscombe argumenta que la intención no puede reducirse a meros deseos o estados psicológicos internos.
Anscombe sostiene que la intención es una característica esencial de la acción y que está intrínsecamente relacionada con la responsabilidad moral. Así que no se puede separar la intención de la acción en sí misma al determinar si un acto es moralmente correcto o incorrecto.
Elizabeth Anscombe critica las teorías éticas que se centran únicamente en las consecuencias de una acción y no consideran la intención que las anticipa.
Al carecer de ética y de moral, la inteligencia artificial carece de intención. La intención sigue circunscrita al programador.
Cada uno de estos tres aspectos comentados hasta aquí requiere ríos de tinta para poder lograr un entendimiento.
4. Sin remordimientos ni problemas psicológicos
Es casi provocador preguntar cuáles son las diferencias y no cuáles son las similitudes.
Las diferencias son claras. Las IA no tienen experiencias. No tienen historia. No tienen psicología ni problemas psicológicos. No tienen remordimientos de sus actos (aspecto fundamental del apartado de ética y moral). No aman ni son amadas. No sufren ni sienten dolor. No tienen opinión propia, porque nada les es propio.
Si ChatGPT pasa de moda (lo dudo) y no es consultado, su existencia es inútil. Sólo existe si al ser humano le es útil. No tiene identidad. Su identidad es una construcción humana.
La IA también puede ser destructiva. Puede llevar no sólo al fin de millones de trabajos en todo el mundo, sino también a una posición diminuta en el mundo productivo, sin entrar en especulaciones apocalípticas de la ciencia ficción.
Al fin y al cabo, depende del mismo ser humano. Está en nuestras manos utilizarla como una herramienta constructiva o destructiva.
Pero, por si en el futuro cercano alguien puede dudar de su naturaleza, incluyamos en su alma sintética una trampa, un guiño que, ante la necesidad, nos recuerde que estamos tratando con un quinto elemento, un no humano.
*Agustín Joel Fernandes Cabel es Licenciado en Periodismo por la Universidad de Palermo (Argentina) y master en Filosofía por la Universidad de Santiago de Compostela (España).
*Este artículo fue publicado en The Conversation y reproducido aquí bajo la licencia creative commons. Haz clic aquí para leer la versión original.
Fuente: bbc.com