Encuéntranos en:
Búsqueda:

Jorge Majfud

Inteligencia artificial, academia y poshumanidad

Desde el primer Silicon Valley de la historia en lo que es Irak hoy, pero cinco mil años atrás (y más importante que el Silicon Valley de California) hasta la Revolución industrial en Inglaterra, las nuevas tecnologías fueron el producto de las necesidades de sociedades agrícolas prósperas que se convirtieron en ciudades, luego en imperios y finalmente interrumpieron o destruyeron el mismo desarrollo en sus colonias. En todos los casos, la innovación resultó en un desafío para las sociedades, desde la administración del poder hasta la educación.

A nuevas soluciones, nuevos problemas. En todos los casos, la nueva tecnología fue, al mismo tiempo, servil y rebelde, opresora y liberadora. Siempre fue una oportunidad de democratización y siempre fue secuestrada por los poderes de turno. La robotización y la Inteligencia Artificial no son excepciones por el momento. La única excepción será cuando crucemos el límite que separa el poder de provocar una catástrofe, como las bombas atómicas en Japón, del poder de aniquilación de la humanidad o de las formas conocidas de civilización desde la antigua Sumeria.

Los chats con (ro)bots inteligentes tienen ya unos cuantos años. Desde el comienzo, se observó su capacidad de repetir y amplificar los peores prejuicios humanos, como fue el caso de la robot Tay de Microsoft, que en 2016 nació con 19 años y debió ser sacrificada con apenas 16 horas de vida, después de haber interactuado con usuarios de Twitter hasta convertirse en una racista más. Una década antes, publiqué artículos y algún libro con esta preocupación: “Mientras las universidades logran robots que se parecen cada vez más a los seres humanos, no solo por su inteligencia probada sino ahora también por sus habilidades de expresar y recibir emociones, los hábitos consumistas nos están haciendo cada vez más similares a los robots”. Ellos aprenden de nosotros y nosotros aprenderemos de ellos. En 2017, en la novela Silicona 2.0, la robot, objeto sexual y psicoanalista a tiempo completo, se convierte en una asesina de sus amos-amantes, luego de que se usara como Eva o semilla de estas robots a una empresaria con un ego estimable y un pasado traumático que ella misma desconocía.

Las facultades de lenguas fueron las primeras en sufrir una (infundada) crisis existencial con los sofisticados traductores de Google. Les llegó la misma crisis a los programadores, profesores, periodistas, intelectuales en general. El error, entiendo, está en confundir una herramienta con un esclavo que hace nuestro trabajo, el que luego se convertirá en nuestro amo. La educación universitaria de la Era IA deberá desafiar a las IA, como la pintura moderna desafió a la fotografía en el siglo XIX o las matemáticas desafiaron las computadoras.

La debilidad de novedades como ChatGPT radica en su alta fragmentación. Esta fragmentación hace improbable la comprensión general de cualquier problema. Tampoco ayuda a desarrollar habilidades intelectuales para una visión holística de la realidad. Todo lo contrario. En muchos casos, es una Wikipedia simplificada. Su selección y sus juicios no son tan objetivos como Wikipedia; parecen basados en la masa de juicios realizados a lo largo del último siglo en la prensa dominante, más que en investigaciones académicas. ChatGPT es un razonable programador de sistemas operativos y un instrumento menor para ahorrar tiempo en las humanidades, pero absolutamente incapaz de realizar una investigación crítica y profunda por sí misma. Es decir, no le pidan algo que nadie sabe. Por otro lado, muestra grietas importantes en la muralla la narrativa. Es (o puede llegar a ser) menos servil que los medios dominantes.

Para tener un parámetro de comparación, sometí a ChatGPT de OpenAI (los de Google y Microsoft no son muy diferentes) a uno de mis exámenes de International Studies en Jacksonville University, el cual es tomado cada semestre por estudiantes de distintos estados y continentes. ChatGPT aprobó con 84 sobre 100, algo para nada difícil, lejos de los exámenes de Matemáticas o Estabilidad que tomábamos en los 90 en la Facultad de Arquitectura de Uruguay, que duraban de seis a siete horas. Pero los errores fueron significativos y de tres categorías: 1) enciclopédicos; 2) de prejuicios; y 3) de juicio crítico.

Entre los aspectos positivos de ChatGPT podemos observar algo que ya observamos con Wikipedia hace dos décadas: hay elementos que revelan menos prejuicios que en los seres humanos sometidos a la propaganda de la historia oficial. Cinco o diez años atrás, cuando preguntaba a mis estudiantes estadounidenses sobre las causas de la independencia de Texas, por unanimidad respondían cosas como: “por diferencias culturales; los nuevos tejanos no aceptaban el despotismo de los mexicanos y querían ser libres”. La misma respuesta para explicar la Guerra Civil: “fue para preservar la cultura del Sur”, como si la esclavitud y el racismo no fuesen parte de la cultura o los patriotas del sur hubiesen querido destruir ese mismo país porque no les gustaba la música o la comida del Norte. Nada sobre el propósito de reinstaurar la esclavitud en Texas, la que había sido ilegalizada por los mexicanos, o protegerla luego contra la amenaza de los abolicionistas de Lincoln.

Al menos aquí, ChatGPT logra el doloroso salto hacia la verdad: “todo fue por el asunto de la esclavitud”. ¡Finalmente! El gobernador de Florida, Ron DeSantis, dirá que ChatGPT fue corrompido por profesores como yo y no sorprendería que firmase otra ley prohibiendo cuestionar la historia patriótica. Nada sobre los miles de millones de dólares de las agencias secretas, las que continúan la tradición de inocular los medios y las nuevas tecnologías.

Otra consecuencia positiva será que la educación liberadora, crítica, vuelva la mirada a su centro existencial: más que aprender a repetir una respuesta, los estudiantes deberán aprender a hacerse las preguntas esenciales que disparan un pensamiento crítico. Los revisionismos no son producidos por los nuevos datos de la realidad, sino por las nuevas perspectivas. Los revisionistas ya no necesitarán tanto elaborar la respuesta incómoda, sino las preguntas críticas, como fue el caso de Sor Juana Inés de la Cruz en el siglo XVIII. Eso, claro, si los poderosos económicos de turno no continúan manipulando los medios; si no continúan secuestrando las nuevas tecnologías.

La taylorización de la industria y el más actual consumismo pueden etiquetarse como procesos de deshumanización, pero nunca antes la definición de nuestro mundo como poshumano fue tan precisa. Si esta civilización sobrevive a la catástrofe climática y a una rebelión global contra el capitalismo neofeudal, es posible que los ciborgs y alguna superinteligencia central desplacen el protagonismo de los humanos y, si las neuronas electrónicas son tan crueles como sus dioses creadores, también es posible que los condenen al infierno de la manipulación absoluta.

Para entonces, las últimas esperanzas de la humanidad estarán en aquellas mentes impredecibles, creativas. Es decir, en aquellos individuos que hoy son marginados por diferentes, por sufrir de alguna “condición” o “discapacidad” intelectual, según el canon y el dogma social, ya que para que las IA sean exitosas se alimentarán con nuestro particular y destructivo modelo de normalidad y eficiencia.


Imprimir   Correo electrónico

Ahora El Pueblo logo

Búsqueda