Viernes, 15 De Mayo De 2026 | Puebla

OPINIÓN

IA: ¿competencia o colaboración?

Cómo la inteligencia artificial refleja lo mejor y lo peor de nosotros mismos

Carlos Anaya Moreno

CEO de Geo Enlace, empresa de Internet de las cosas desde el año de 2010; y fundador de la Unión de Servicios Solidarios-Banco de Tiempo (2018). Se desempeñó como director General del Registro Nacional de Población de 2004 a 2010. Actualmente, es cofundador de metododelcaso.org y miembro de “Laicos en la Vida Pública”.  

Sábado, Mayo 10, 2025

La inteligencia artificial (IA) ya no es cosa del mañana: está en todos lados. Cuando Netflix nos recomienda una película, cuando Google Maps nos muestra la ruta más rápida, cuando los bancos analizan si otorgarte un crédito. Pero detrás de esta revolución tecnológica surge una pregunta clave: ¿la IA debe servir para competir… o para colaborar?

Cuando la IA se convierte en competencia

Más artículos del autor

Las grandes empresas tecnológicas lo saben bien: dominar la IA significa dominar mercados, influencias y hasta geopoder.

Amazon, por ejemplo, emplea algoritmos avanzados de predicción para anticipar las compras de los usuarios, optimizando inventarios y logística (Sun, Dong, & Dave, 2019). Google, con DeepMind, logró en 2017 que su sistema AlphaGo derrotara al campeón mundial de Go, Ke Jie, demostrando que las máquinas podían superar capacidades humanas en campos complejos (Byford, 2017).

En el terreno político, Estados Unidos y China lideran una carrera global por la supremacía en IA, invirtiendo miles de millones en defensa, ciberseguridad e innovación tecnológica (Allison, 2017). Este escenario alimenta lo que algunos expertos llaman una carrera armamentista digital, donde la velocidad por ganar eclipsa consideraciones éticas, amplificando desigualdades entre los países con acceso a estas tecnologías y aquellos que quedan rezagados (UNESCO, 2021).

Además, cuando las decisiones algorítmicas no son transparentes, se corre el riesgo de erosionar la confianza pública. Según el informe del Consejo de Derechos Humanos de las Naciones Unidas (United Nations Human Rights Council, 2021), la falta de explicabilidad en los sistemas automatizados puede vulnerar derechos fundamentales, desde la privacidad hasta el acceso equitativo a servicios.

Cuando la IA se convierte en colaboración

Pero no todo es competencia. Hay un lado luminoso donde la IA sirve como puente para la cooperación global.

La Partnership on AI es un ejemplo emblemático: una red global que reúne a empresas como Google, Microsoft, ONGs y universidades para establecer principios éticos, compartir buenas prácticas y fomentar una IA que beneficie a toda la humanidad (Partnership on AI, s.f.).

El movimiento open source (código abierto) es otro terreno donde la colaboración florece. Plataformas como TensorFlow (Abadi et al., 2016) y PyTorch (Paszke et al., 2019) permiten que miles de desarrolladores de todo el mundo trabajen colectivamente para mejorar los modelos de aprendizaje automático. Este ecosistema abierto ha acelerado avances en áreas como la medicina, donde la IA colaborativa ha ayudado a diagnosticar enfermedades como el cáncer con niveles de precisión superiores al ojo humano (Esteva et al., 2017).

Incluso gobiernos están colaborando a nivel internacional. La Unión Europea, por ejemplo, lanzó las Ethics Guidelines for Trustworthy AI (European Commission, 2019), un marco que promueve la creación de sistemas responsables, justos y explicables, y lo comparte con otros países para alinear esfuerzos.

Aplicando la teoría de juegos de Nash a la colaboración en IA

Aquí es donde la teoría de juegos entra en escena. El equilibrio de Nash, desarrollado por el matemático John Nash (1950), describe una situación en la que ningún participante puede mejorar su resultado individual cambiando unilateralmente su estrategia, dado que los demás jugadores mantienen las suyas.

Esto es fundamental para la IA: si cada empresa, gobierno o actor tecnológico solo compite por maximizar su propio beneficio, corremos el riesgo de llegar a un resultado colectivo subóptimo (como en el dilema del prisionero). Sin embargo, si todos los actores acuerdan reglas compartidas y cooperan —alineando incentivos para que colaborar sea más beneficioso que competir ferozmente—, es posible alcanzar un equilibrio colaborativo que beneficie a todos (Myerson, 1991; Leyton-Brown & Shoham, 2008).

Por ejemplo, aplicar mecanismos de cooperación basados en equilibrio de Nash permitiría que varias empresas compartan conjuntos de datos (datasets) bajo acuerdos claros, maximizando el aprendizaje colectivo sin perder ventajas competitivas. Esto es particularmente relevante en sectores como salud pública, cambio climático o transporte, donde los beneficios sociales de la colaboración superan los beneficios privados de la exclusividad.

¿Competimos o colaboramos?

La respuesta realista es: ambas cosas. La competencia impulsa la innovación, pero la colaboración garantiza que los beneficios de la IA se distribuyan de manera más justa y amplia. Las empresas luchan por liderar el mercado, pero también cooperan en la creación de estándares y plataformas compartidas. Los gobiernos se rivalizan en algunos frentes, pero acuerdan regulaciones conjuntas para proteger a los ciudadanos (Future of Life Institute, 2017; UNESCO, 2021).

Aquí es donde entra en juego el papel de la sociedad civil. Según la Rome Call for AI Ethics del Vaticano (Pontificia Academia para la Vida, 2020), necesitamos una inteligencia artificial con rostro humano, que priorice la dignidad, la equidad y la sostenibilidad. Y esto no puede lograrse sin la participación activa de ciudadanos, legisladores, desarrolladores y empresas.

Si queremos un futuro donde la IA sea un puente para soluciones compartidas y no solo una herramienta para ganar más rápido, debemos preguntarnos: ¿qué valores queremos priorizar como sociedad?

Porque al final, la IA será tan ética (o injusta) como las mentes humanas que la diseñan, programan y regulan.

Referencias
Abadi, M., Barham, P., Chen, J., Chen, Z., Davis, A., Dean, J., ... & Zheng, X. (2016). TensorFlow: A system for large-scale machine learning. arXiv preprint arXiv:1605.08695
Allison, G. (2017). Destined for war: Can America and China escape Thucydides's trap? Houghton Mifflin Harcourt.
Byford, S. (2017, May 23). Google’s AlphaGo AI defeats world Go number one Ke Jie. The Verge.
Esteva, A., Kuprel, B., Novoa, R. A., Ko, J., Swetter, S. M., Blau, H. M., & Thrun, S. (2017). Dermatologist-level classification of skin cancer with deep neural networks. Nature, 542(7639), 115–118. https://doi.org/10.1038/nature21056
European Commission. (2019). Ethics guidelines for trustworthy AI. High-Level Expert Group on Artificial Intelligence. 
Future of Life Institute. (2017). Asilomar AI principles.
Leyton-Brown, K., & Shoham, Y. (2008). Essentials of game theory: A concise multidisciplinary introduction. Morgan & Claypool. https://doi.org/10.2200/S00108ED1V01Y200802MAS003
Myerson, R. B. (1991). Game theory: Analysis of conflict. Harvard University Press.
Nash, J. (1950). Equilibrium points in n-person games. Proceedings of the National Academy of Sciences, 36(1), 48–49. https://doi.org/10.1073/pnas.36.1.48
Partnership on AI. (s.f.). About Us
Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., ... & Chintala, S. (2019). PyTorch: An imperative style, high-performance deep learning library. arXiv preprint arXiv:1912.01703
Pontificia Academia para la Vida. (2020). Rome Call for AI Ethics. Vaticano.
Sun, X., Dong, Z., & Dave, R. (2019). Amazon forecasting: Demand forecasting at scale. arXiv preprint arXiv:1905.12639.  
UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. París: Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.
Anaya, C. (2025) Inteligencia Artificial con sentido común e-consulta.
Anaya, C. (2025) La Inteligencia Artificial y la Dignidad Humana | Revista Forja Para el Bien Común

Vistas: 858
AL MOMENTO
MÁS LEIDAS

Blogs