No hace mucho tiempo que Sam Altman, CEO de OpenAI y creador de ChatGPT, se mostraba preocupado por la forma en que se retroalimentaba y progresaba la Inteligencia Artificial (IA). Últimamente, sin embargo, éste ha tenido una actitud más bien ambivalente en relación a este punto. Con motivo de la celebración del segundo aniversario de la creación de ChatGPT, no sólo ha pedido al gobierno de Estados Unidos suprimir las regulaciones sobre datos y patentes que le impiden rivalizar con otros países en esa feroz competencia que se ha desatado entre los diferentes asistentes virtuales (Copilot, Meta AIci, Gemini, DeepSeek, etc.), sino que incluso se congratuló por los adelantos que ha tenido su chatbot creando nuevos contenidos (Inteligencia Artificial Generativa) y desarrollando la Superinteligencia Artificial, lo que parece apuntar a una posible interoperabilidad (o sinergia digital) que se estaría produciendo entre estos asistentes en lo que llamó Gore “autopista de la información”. Aunque nuevamente hizo hincapié en la cantidad de trabajos que se irían volviendo obsoletos y el peligro que esto suponía para los trabajadores, esta vez se mostró confiado en que el ser humano nunca perdería el control sobre la IA.
Creo que en nuestro país hay pocas instituciones y personas que se hayan tomado en serio este asunto de la Inteligencia Artificial. Ni siquiera nuestros afamados “opinadores profesionales” parecen haberse percatado de lo que está en juego, que no es ni más ni menos que el futuro no sólo del país, sino de toda la humanidad. Lo que estamos viviendo en este momento es comparable a lo que sucedió en todo el mundo cuando se descubrió la electricidad o la microbiología, e incluso cuando se fabricó la bomba atómica. Pensemos por un momento cómo se industrializó el mundo a partir de la introducción de la energía eléctrica y cómo se incrementó la esperanza de vida con los adelantos microbiológicos, o cómo cambiaron las relaciones internacionales a partir de la amenaza atómica. Países como la India o Japón, por ejemplo, han entendido perfectamente lo que está sucediendo y han creado organismos gubernamentales dedicados exclusivamente a estudiar los posibles usos de la IA y sus probables repercusiones a nivel social. Los que tienen funciones de gobierno en nuestro país (o piensan tenerlas) deberían copiar estas iniciativas, de lo contrario, pronto nos convertiremos en esa especie de reserva atrasada a la cual iba, en una especie de excursión arqueológica, el protagonista de Un mundo feliz, ese libro donde Huxley exponía ya en 1932 los riesgos inmanentes a los adelantos tecnológicos.
Pero lo que me interesa en este momento destacar son las afirmaciones de Thomas Wolf, otro experto en nuevas tecnologías, quien, ante este “shock del futuro”, como denominó Alvin Toffler la ansiedad y desorientación que experimentamos debido a la magnitud de los cambios tecnológicos, ha defendido que nunca estos sistemas dejarán de depender del hombre y que “el principal error que suele cometer la gente es pensar que Newton o Einstein eran simplemente buenos estudiantes”, con lo que quiere dar a entender que no basta sólo con la información —por muy abundante que ésta sea— para generar conocimiento. Esto supone un problema gordo, pues si por conocimiento entendemos de alguna manera el razonamiento, es decir, memorizar, ordenar información, analizarla y llegar a conclusiones, los chatbots razonan y muy bien. En este sentido, podríamos decir que estos asistentes virtuales son más racionales, e incluso más “inteligentes”, que la mayoría promedio de los seres humanos (inteligencia natural). Y esto ya de por sí es una afirmación aterradora. Pero el conocimiento no es únicamente una cuestión de racionamiento, no es sólo una cuestión de racionalidad lógica y deductiva (e incluso inductiva), sino que supone también algo que llamamos intuición y también creatividad (lo que poseían en abundancia tanto Newton como Einstein); esto es, la capacidad de realizar hipótesis o teorías alternativas en cualquier rama del conocimiento. Pero aceptar esto implica afirmar que hay momentos del quehacer científico en los que actuamos irracionalmente, es decir, que el proceso cognitivo no es enteramente racional.
Los defensores del método científico, para evitar el espinoso problema de la elección de teorías y negándose a aceptar cierto grado de irracionalidad que debería existir en el desarrollo del conocimiento y las ciencias, dividieron el proceso científico en “contexto de descubrimiento” (algo que, de alguna manera, pertenecía a la psicología) y “contexto de justificación” (lo que realmente debería importar a las ciencias y que apuntaba al llamado “método”, que desde Descartes y Bacon, se había constituido, junto a la idea de progreso, en el emblema de la modernidad). Sin embargo, tanto los escritos de Kuhn como los de Feyerabend echaron por tierra esta superficial distinción y señalaron que el proceso cognitivo mediante el que se proponían hipótesis y se desarrollaba el conocimiento científico, era uno sólo, el cual incluía una multitud de enfoques creativos, casualidades (serendipias), intuición y hasta fe, por lo que rápidamente fueron tildados, a su vez, de irracionales, aunque al parecer no estaban muy equivocados. Lo que intento decir es que: o aceptamos que nuestro conocimiento tiene bases irracionales (intuición o creatividad), algo que las máquinas “todavía” no pueden copiar, o, por el contrario, aceptamos que el conocimiento científico es enteramente racional y, en esto, las máquinas nos sacan una buena ventaja.
Quienes nos dedicamos a la enseñanza estamos atónitos, por otro lado, ante los niveles de ignorancia que muestran actualmente nuestros alumnos y el lenguaje elemental que utilizan. Lo preocupante es que esto está sucediendo en todo el mundo, por lo que seguramente no sólo tenga que ver con los sistemas de gobierno, sino también con el avance de las redes sociales (los mensajes cortos, el exceso de vitrinas donde hay mucha información al alcance de la mano y sin ningún esfuerzo intelectual) y con el liderazgo mundial —sea cual sea su tendencia política—, que no parece estar a la altura del momento histórico que nos ha tocado vivir. En España, por ejemplo, se ha reducido el currículo escolar, y los estudiantes ya no verán regla de tres, números romanos, dictados o el mínimo común denominador, y en nuestro país ocurre otro tanto; pocos saben, por ejemplo, que nuestros alumnos hace tiempo no estudian Geografía o Historia y que ahora ven algo que se llama GHC, donde estas materias se dictan junto a cultura cívica sin ningún tipo de profundidad y a discreción de buena parte de los educadores.
Todo ello nos obliga a decir que los humanos poco a poco nos hemos ido convirtiendo en seres cómodos e incultos, mientras las máquinas trabajan a “toda máquina” en el sentido contrario; que la racionalidad deductiva y apodíctica ya no es propiedad exclusiva de los seres humanos y que lo único que nos distingue “por ahora” de estos asistentes virtuales son nuestros sentimientos y sensaciones, los que, paradójicamente, muchas veces entorpecen nuestro razonamiento y nos impiden tomar buenas decisiones, como les sucedía a los héroes trágicos. En dos palabras, mientras los pueblos se embrutecen, las máquinas se vuelven más inteligentes, por lo que no cuesta mucho imaginar quiénes, en el futuro, serán los que dirijan.
En un primer momento, seguramente un pequeño grupo, y para confirmar la famosa “ley de hierro de las oligarquías”, podrá poner la IA a su servicio, marcando una vez más la diferencia entre los que realmente gobiernan y la gran masa pauperizada e ignorante. Pero, por lo que se puede “intuir”, tampoco ellos retendrán ese poder por mucho tiempo.