
Resumen
El rápido avance de tecnologías disruptivas como la inteligencia artificial (IA), la robótica y la computación cuántica ofrece inmensas oportunidades, pero también plantea riesgos significativos si su desarrollo carece de un enfoque humanista, ético y responsable. Este artículo explora detalladamente cómo la desatención a los principios centrados en el ser humano puede generar vulnerabilidades críticas en la ciberseguridad, exacerbar la desigualdad social, conducir a la deshumanización de los procesos y las relaciones, y crear dilemas éticos y de responsabilidad complejos. A través de un análisis de los impactos sectoriales y filosóficos, se argumenta la urgencia de integrar valores como la autonomía, la dignidad y la inclusión en el diseño y la implementación de estas tecnologías. La conclusión jerarquiza los riesgos identificados, enfatizando la necesidad de una gobernanza digital proactiva y multidisciplinar.
Introducción
En las últimas décadas, la humanidad ha sido testigo de una transformación tecnológica sin precedentes, impulsada por la inteligencia artificial (IA), la robótica y la computación cuántica. Estos avances prometen soluciones a innumerables problemas globales, pero simultáneamente introducen nuevos riesgos y amplían los vectores de ataque en una sociedad cada vez más hiperconectada. Instituciones como el Instituto para la Humanización de la Tecnología (IHT) subrayan la importancia de que la sociedad comprenda estos desafíos y oportunidades, promoviendo siempre un enfoque centrado en el ser humano y el desarrollo tecnológico responsable y ético. Del mismo modo, MAPFRE defiende un «Manifiesto por una inteligencia artificial humanista, ética y responsable», estableciendo principios que ponen a las personas en el centro del desarrollo de la IA.
La ética en la inteligencia artificial, el transhumanismo y la antropología son palabras clave recurrentes en esta discusión. Sin embargo, la falta de un enfoque humanista puede tener consecuencias profundas que afectan desde la privacidad y la seguridad individual hasta la estabilidad geopolítica y la propia esencia de la dignidad humana. Este artículo aborda los riesgos asociados a la ausencia de una perspectiva humanista en el desarrollo y la aplicación de la IA, la robótica y la computación cuántica, ofreciendo un análisis de sus implicaciones sociales, éticas y militares.
Impacto de la Tecnología sin Enfoque Humanista
Inteligencia Artificial y la Deshumanización
El desarrollo de la IA tiene el potencial de transformar el mundo y sectores como la industria aseguradora. Sin embargo, existen serias preocupaciones sobre la deshumanización de los procesos y el impacto negativo en los puestos de trabajo si no se gestiona adecuadamente. La perspectiva de la IA superinteligente, explorada por filósofos como Nick Bostrom, plantea el problema fundamental de la alineación de la IA con los valores humanos y la necesidad de asegurar que beneficie a todos los humanos y animales. Bostrom identifica posibles utopías de la IA, como la post-escasez o la post-laboral, donde la producción no requiere trabajo humano, pero advierte que el futuro será probablemente una mezcla de utopía y distopía si no se consideran los riesgos.
La ausencia de un enfoque humanista también se manifiesta en cómo la IA puede afectar a grupos vulnerables. El nuevo Reglamento de la Unión Europea sobre Inteligencia Artificial busca garantizar que la IA respete derechos fundamentales como la protección de la salud, la privacidad y la no discriminación. Sin embargo, informes críticos señalan que la normativa presenta una «asimetría normativa» al priorizar las disposiciones en la exposición de motivos sobre las vinculantes, lo que reduce su efectividad real. Además, se critica la falta de medidas específicas para que la IA beneficie activamente a las personas con discapacidad, adoptando un enfoque «proteccionista» en lugar de promover su participación en el desarrollo y supervisión de los sistemas de IA. Esto puede agravar las barreras existentes en lugar de promover la inclusión y la accesibilidad universal. La falta de consideración cultural en el diseño de IA también es un riesgo, ya que las narrativas culturales sobre la IA varían significativamente entre países como Rusia, China, Japón y Corea del Sur.
Robótica y la Vulnerabilidad Humana
La robótica asistencial ha experimentado un crecimiento notable, proyectada para el cuidado de personas vulnerables como niños, ancianos y personas con diversidad funcional. Sin embargo, la introducción a gran escala de robots para el cuidado plantea una redefinición de lo que es el trabajo de cuidados, con el riesgo de alterar las dimensiones del cuidado humano. Un uso sustitutivo de la robótica, en lugar de uno complementario, puede llevar a un mayor aislamiento social y daño psicológico en las personas cuidadas. La cuestión de si la robotización de la asistencia no esconde una tendencia hacia el abandono de personas vulnerables y la atrofia de la capacidad moral de entrega gratuita a los otros es crucial.
Además, la dependencia económica para adquirir artefactos robóticos asistenciales, que hoy son costosos, puede abrir una «brecha robótica» en los hogares, aumentando la desigualdad social. Los riesgos de seguridad, errores y vulnerabilidad informática en los robots asistenciales son también una preocupación, planteando la compleja cuestión de la responsabilidad ante fallos. La vigilancia a distancia por robots puede invadir la privacidad, la confidencialidad y la libertad de las personas cuidadas, especialmente si no hay un consentimiento informado y consciente.
Desde una perspectiva filosófica, el cuidado humano implica una interacción interhumana y una vinculación emocional que brota de la presencia directa, junto con un intercambio fluido de razones. Los algoritmos actuales de los robots no permiten incluir «razones» en su inteligencia, reduciendo el cuidado a un proceso en el que solo operan causas, lo cual lo distancia del verdadero cuidado humano. El modelo social de la discapacidad, recogido en la Convención sobre los Derechos de las Personas con Discapacidad (CDPD), enfatiza que la discapacidad es una creación del contexto social y que la inclusión social debe guiar la configuración del entorno socio-técnico. Este marco exige una robótica inclusiva que fortalezca la autonomía vulnerable de las personas, facilitando su participación plena en la sociedad y respetando el derecho al contacto humano y a la elección del tipo de cuidado.
Computación Cuántica y la Amenaza a la Ciberseguridad
La computación cuántica es una tecnología disruptiva que se espera sea tan revolucionaria como los teléfonos inteligentes en la década de 2010. Sin embargo, su principal desventaja radica en su potencial capacidad de descifrar los sistemas criptográficos actuales, lo que podría dar vía libre a los robos de datos si las empresas no adoptan algoritmos de cifrado poscuánticos. El algoritmo de Shor, por ejemplo, ya se ha desarrollado y podría poner en peligro los métodos de cifrado tradicionales.
La amenaza es tan inminente que un estudio de DigiCert reveló que el 71% de los profesionales de TI son conscientes de ella, aunque con grandes diferencias en el nivel de preparación. Organizaciones como DigiCert están desarrollando soluciones para la criptografía poscuántica, colaborando con expertos del sector.
En el ámbito militar y de defensa, la computación cuántica se considera una herramienta poco convencional que incidirá en los resultados de las guerras de quinta generación (5GW). Podría convertirse en la «bomba nuclear del mundo digital». La tecnología cuántica tiene la capacidad de ofrecer soluciones avanzadas para proteger infraestructuras críticas cibernéticas, pero en manos equivocadas, puede ser una herramienta peligrosa. Los ordenadores cuánticos harían que los ciberataques, el ciberespionaje y el ciberterrorismo sean aún más difíciles de detectar. Esto pone en riesgo las infraestructuras críticas y, por ende, puede afectar el suministro de bienes y servicios esenciales, comprometiendo la democracia y el bienestar de los ciudadanos en tiempos de guerra. La inestabilidad y complejidad geopolítica actual, con conflictos como los de Ucrania y Oriente Medio, evidencian la urgencia de una estrategia de ciberseguridad cuántica que aborde estos riesgos. Los gobiernos, como el de Estados Unidos, reconocen que las tecnologías de computación cuántica pueden plantear riesgos para la seguridad nacional si caen en manos de adversarios, permitiéndoles comprometer la criptografía que protege datos sensibles.
Conclusiones
El desarrollo de la inteligencia artificial, la robótica y la computación cuántica sin un enfoque humanista integral conlleva una serie de riesgos que deben abordarse con urgencia y conciencia situacional. La interconexión entre tecnología y filosofía se vuelve crucial en un mundo cada vez más interdependiente y convulsionado.
Para terminar veamos una jerarquización de los riesgos de la falta de un enfoque humanista, ordenados de mayor a menor impacto potencial:
- Amenaza existencial a la ciberseguridad global y la infraestructura crítica: La capacidad de la computación cuántica para descifrar los sistemas criptográficos actuales representa el riesgo más inminente y de mayor alcance. Esto no solo comprometería la privacidad personal y empresarial, sino que también desprotegería sectores vitales como las finanzas, la asistencia sanitaria, los transportes y la infraestructura energética. En el contexto militar, la «supremacía cuántica» podría hacer que los ciberataques sean indetectables y daría una ventaja decisiva en las guerras de quinta generación, amenazando la seguridad nacional y la estabilidad global.
- Deshumanización y pérdida de la autonomía humana: El desarrollo de la IA y la robótica sin una base ética sólida conlleva el riesgo de que los procesos se deshumanicen y se comprometa la autonomía individual. Particularmente en la robótica asistencial, la sustitución del contacto humano por artefactos robóticos puede generar aislamiento social, daño psicológico y la atrofia de la capacidad humana de cuidado y empatía. Además, la vigilancia por parte de estas tecnologías puede invadir la privacidad y reducir la libertad de las personas.
- Aumento de la desigualdad social y digital: La accesibilidad y el beneficio de las tecnologías avanzadas pueden verse limitados por el estatus económico, creando una «brecha robótica». La falta de un enfoque inclusivo en la regulación de la IA puede exacerbar las barreras existentes para grupos vulnerables, como las personas con discapacidad, en lugar de promover su participación activa y accesibilidad universal.
- Impacto laboral y económico no regulado: La adopción generalizada de la IA y la robótica, especialmente en roles asistenciales, plantea la posibilidad de desempleo tecnológico a gran escala y la consiguiente pérdida de ingresos y protección social. Sin políticas adecuadas de redistribución y adaptación, esto podría generar inestabilidad económica y social.
- Riesgos éticos y de responsabilidad no resueltos: Los fallos de seguridad y los errores en sistemas de IA y robótica plantean dilemas complejos sobre la asignación de responsabilidades, que actualmente no están claramente definidos. La necesidad de marcos éticos y jurídicos que guíen el diseño, la fabricación y el uso de estas tecnologías es fundamental para abordar estos interrogantes morales y garantizar un uso responsable.
Para mitigar estos riesgos, es imperativo que los gobiernos, la academia, el sector empresarial y la sociedad civil fomenten una colaboración activa en la investigación y el desarrollo, priorizando un uso ético y seguro de la tecnología. El objetivo no es detener el progreso, sino humanizar su uso, asegurando que el avance tecnológico sirva al bienestar y la dignidad de todas las personas.
Bibliografía
- Associated Press. (2023, 12 de octubre). Elon Musk’s X removes thousands of Israel-Hamas misinformation accounts and posts amid EU demand.
- BEORLEGUI, C. (2022). El post-humanismo robótico de Ray Kurzweil. Un análisis crítico. Estudios Filosóficos, 64(187), 429–472.
- Bolaños Jiménez, C. (2024). La guerra y el liderazgo estratégico en la era de la computación cuántica. En S. Uribe-Cáceres & D. López Niño (Eds.), Guerra, estrategia y liderazgo: cómo los líderes forjan la historia (pp. 155-184). Sello Editorial ESDEG.
- Comité Español de Representantes de Personas con Discapacidad (CERMI) (2024, 11 de septiembre). Un amplio informe describe el impacto en los derechos de las personas con discapacidad del nuevo Reglamento Europeo de Inteligencia Artificial.
- Congressional Research Service. (2023, 7 de septiembre). Quantum computing: Concepts, current state, and considerations for congress.
- DigiCert. (2021, 3 de noviembre). El impacto de la informática cuántica en la sociedad.
- Ferran Jarabo Carbonell. (2024). Aproximación ética a la inteligencia artificial desde una óptica humanista cristiana. SCIO: Revista de Filosofía, (27).
- IHT Instituto para la Humanización de la Tecnología. (2024). Divulgación e Información – Humanizando la Tecnología.
- Khan, Karim (2023). Technology will not exceed our humanity. Digitalfrontlines.io
- Krelina, M., & Dúbravčík, D. (2023). Quantum technology for defence: What to expect for the air and space domains. Joint Air Power Conference Centre. The Journal of the JAPCC, (35), 39-46.
- MAPFRE. (n.d.). Manifiesto de MAPFRE por una inteligencia artificial humanista, ética y responsable.
- Marzal, C. (2020, 1 de julio). La computación cuántica y la ciberdefensa.
- Moreno, Luis y Jiménez, Raúl (2018). Democracias robotizadas. Escenarios futuros en Estados Unidos y la Unión Europea. Madrid: Los libros de la catarata.
- Morozov, Evgeny (2016, 30 de enero). ¿Un robot para cada persona mayor?. El País.
- Nussbaum, Martha (2007). Las fronteras de la justicia. Barcelona: Paidós.
- Sánchez, F. J., & Rueda, M. J. (n.d.). Un marco ético-político para la robótica asistencial.
- Teal, Solon. (2024, 22 de mayo). ¿Qué dicen los filósofos sobre la IA?. KW Foundation.
- United States Government Accountability Office. (2021, octubre 19). Quantum Computing and Communications: Status and prospects.
- Yáñez, F. (2022, 27 de febrero). Computación cuántica: La bomba nuclear del mundo digital. Faro de Vigo