Insto a la gente a marcar la diferencia entre las decisiones de los usuarios humanos y las del algoritmo. Si el usuario humano decide inventar una historia, publicar fake news y mentir (tal vez por error o a propósito), en situaciones extremas, podría ser perseguido y castigado; en términos generales, la gente miente, pero en una democracia debemos tener cuidado antes de empezar a censurar. Además, creo que la gente tiene derecho a la estupidez, inclusive a decir mentiras —excepto cuando se vinculan a un delito—. No es bueno que la gente mienta, pero forma parte de la libertad de expresión. Sin embargo, el tema principal con esas teorías de conspiración y fake news no son las decisiones de los seres humanos protegidos por la libertad de expresión, sino las decisiones de los algoritmos de las corporaciones, pues su modelo de negocio se basa en la implicación del usuario.
Yuval Noah Harari. La IA permite una vigilancia total que acaba con cualquier libertad. Entrevista de Pilar Bolívar. Ethic. 27 de enero de 2025.
Me preocupa cada vez más la acelerada normalización acrítica en el uso de la (mal) llamada inteligencia artificial (IA) en todos los terrenos, pero especialmente en mi campo de trabajo e investigación que es el de la educación formal. Usando la imagen de Harari respecto a “la mentalidad de carrera armamentística” de los desarrolladores de esta tecnología compitiendo frenéticamente para no dejarse ganar sin importar las consecuencias, como “…si alguien pusiera en la carretera un vehículo sin frenos” y dijera “solo queremos que vaya lo más rápido posible y, si luego hay un problema…con los frenos…inventaremos algo cuando eso suceda…” tal parece que las instituciones educativas, sobre todo las que tienen más recursos económicos y potencia tecnológica, están participando en esa misma carrera.
Más artículos del autor
A pesar de que no es algo nuevo en el ámbito tecnológico y empresarial a nivel mundial, la IA ha irrumpido de manera relativamente reciente con una velocidad alarmante en nuestras vidas y tal parece que la preocupación no se encuentra en sus posibles y muy graves consecuencias para las libertades humanas y en el extremo, para la supervivencia de nuestra especie sino en pensar cómo aplicarla y usarla para facilitar y agilizar ciertas tareas, declarando en el mejor de los casos que “se abrirán espacios de reflexión para su uso ético”.
En la docencia y la investigación el problema parece situarse en las conductas éticamente cuestionables o claramente no éticas como el plagio o incluso la delegación en las diversas herramientas de IA generativa disponibles -muchas de ellas en versiones gratuitas- para que escriban textos completos solicitados por los profesores como tarea o partes completas de una tesis, artículo o capítulo de libro que, idealmente es revisada o maquillada por el estudiante o el investigador pero a veces es entregada o enviada para su dictamen y publicacción tal como se recibe.
El resultado de estos encargos a la IA por parte de estudiantes y aún de profesores o investigadores es variable en cuanto a su calidad y confiabilidad, porque esta herramienta produce a través de un proceso de articulación y concatenación de datos con los que ha sido alimentada y en no pocas ocasiones plantea información falsa, atribuye ideas o conceptos a autores que jamás las dijeron o escribieron, saca conclusiones erróneas del procesamiento de conceptos de los que echa mano como premisas y llega a generar textos con errores lógicos.
He aquí una primera violación al derecho de los seres humanos a la estupidez o a la mentira. En el nivel individual la IA asume la tarea de generar textos, imágenes, presentaciones o videos alimentándose de una enorme cantidad de información con que ha sido alimentada o se ha autogenerado a partir de ejercicios de ensayo-error por solicitudes acumulativas que ha ido respondiendo, pero cuando en este trabajo comete errores le ha quitado a la persona el derecho a su propia estupidez o dicho positivamente, el derecho a equivocarse para ir aprendiendo de sus errores. La que va corrigiendo sus respuestas a partir de los errores que se le señalan es la IA, no la mente, la inteligencia real de una persona.
Lo mismo ocurre con el derecho a la mentira. Aunque utilizar IA para realizar un reporte de lectura, un ensayo o una presentación diciendo que se trata de un trabajo propio es de hecho mentir, en el proceso, digamos tradicional, de construcción de la mentira el estudiante tenía que utilizar su ingenio, su creatividad, su capacidad intelectual para que esa mentira tuviera una apariencia de verdad y asumir la responsabilidad plena del acto de mentir.
No es el caso del plagio o el encargo total a la IA puesto que ahí, la persona que presenta un trabajo producto de la tecnología como propio, no tiene que hacer el menor esfuerzo para darle una apariencia de realidad y puede evadir totalmente su responsabilidad justificándose en la supuesta normalidad de recurrir a la tecnología en lugar de pensar por sí mismo.
Pero el problema principal y más grave, como dice Harari, no radica en el nivel particular de las acciones individuales sino en lo estructural y en lo cultural. Porque existe hoy en día una tendencia cada vez más generalizada que no sólo permite sino impulsa que las grandes decisiones sociales sean tomadas por los algoritmos de las corporaciones, dado que como afirma el autor de Nexus el modelo de negocio de estas empresas que incluso controlan a los gobiernos de los países más poderosos, se sustenta en la implicación de los usuarios.
De manera que las decisiones sobre los productos que más se publicitan, las noticias que se destacan y difunden con más amplitud e intensidad, las figuras, imágenes o narrativas políticas que se realzan y aún las visiones artísticas, culturales y hasta religiosas que se subrayan y venden con más recursos son las que los algoritmos de la IA generativa de estas grandes corporaciones eligen convertir en dominantes, con lo que la IA no solamente toma decisiones por su cuenta sino que crea además ideales y modelos aspiracionales de vida no necesariamente deseables desde un punto de vista humano.
Por otra parte, la IA dice el autor: “…permite una vigilancia total que acaba con cualquier libertad porque no necesita agentes para seguir a cada humano…” dado que esta labor pueden hacerla los teléfonos inteligentes, las computadoras y otros dispositivos como las cámaras de reconocimiento facial y voz que se intalan por supuestos motivos de seguridad, pero se usan muchas veces como mecanismos de espionaje y represión.
Es el caso que plantea Harari de la vigilancia a las mujeres en el régimen despótico de los Ayatolás de Irán, que a través de cámaras de identificación facial pueden detectar y sancionar a quienes vayan por la calle a pie o en su auto sin cubrir su rostro. Cualquier mujer que se atreva a ir con el rostro descubierto recibe de inmediato en su teléfono celular un SMS en el que se le señala su falta y la sanción correspondiente, lo cual cancela toda libertad y todo derecho a actuar de manera contraria a lo establecido por más arbitrario que sea.
Desde esta mirada más amplia, las universidades deberían estarse preguntando cuestiones mucho más serias que trasciendan las formas más eficientes de uso de la IA o los detalles éticos particulares. Paradójicamente hoy resulta muy relevante reivindicar el derecho a la estupidez e incluso a la mentira como componentes de la libertad humana.