Daniel Fernández
Profesor Facultad de Ingeniería
Del reciente encuentro GeneXus30, uno de los foros de plataformas y aplicaciones de inteligencia artificial (IA) más importantes de Latinoamérica, en el que me tocó participar, algunos tips: 1. La denominación “inteligencia artificial” es confusa: estos sistemas no son “inteligentes” en el sentido en que lo somos los humanos, y “artificiales” es una definición muy etérea.
Al ser construidos por humanos (seres autopoiéticos) son sistemas heteropoiéticos, y puesto que evolucionan en el tiempo, son dinámicos: son sistemas heteropoiéticos dinámicos (SHD), una definición más precisa.
2. El estado emocional de un equipo define un dominio de posibilidades de acción (Humberto Maturana): emociones positivas amplían el dominio; negativas lo cierran. Los SHD pueden narrar emociones sin sentirlas, pero aun así logran cambiar los dominios emocionales de los humanos en la interacción. Aprender a gestionar el estado emocional de la organización en este contexto permite ganar productividad a gran escala.
3. No “convivimos” con los SHD, “interactuamos” con ellos, en un proceso de aprendizaje “enactivo” (Francisco Varela). El lenguaje y la emoción conforman un dominio de convivencia exclusivo de los humanos.
Demostraron que ChatGPT ”miente“.
4. ChatGPT y otros sistemas generativos no emplean lenguaje; intercambian textos que elaboran de un modo probabilístico y determinístico, mediante algoritmos que usan datos del pasado (Eric Sadin). Nuestra dinámica del lenguaje ocurre en tiempo presente y en un constante devenir, es indeterminística y conlleva emocionalidad.
5. Los SHD generativos son básicos: elaboran textos secuencialmente, palabra tras palabra, buscando la que “debe seguir” según su mayor probabilidad de ocurrencia, a partir de una base de datos. No “piensan” ni “son inteligentes”, ni “crean” ni “lenguajean” como lo hacemos los humanos.
6. El equipo de GeneXus sometió a ChatGPT a una serie de preguntas y contrapreguntas, mostrando cómo este sistema generativo “fi-cciona” cuando no tiene información suficiente sobre algo. Esto es natural: ha sido alimentado con la literatura histórica de la humanidad, llena de ficciones, que ChatGPT “digirió” y a la que ahora recurre.
7. Más allá aún: demostraron que ChatGPT “miente” —es decir, desecha información válida y recurre a otra— cuando se le somete a estrés al cuestionar, mediante nuevas preguntas, la coherencia de sus respuestas anteriores. La aproximación cognitiva, emocional y cultural de las organizaciones al aprendizaje de los mitos y realidades sobre los SHD generativos es fundamental para aprovechar equilibradamente su real potencial, en actuar con ellos productivamente en el respeto de la emocionalidad de las personas y mitigar los riesgos de una implementación inadecuada.