- El profesor de la Universidad Europea, Francisco José García-Ull, cree que “el discurso apocalíptico sobre la Inteligencia Artificial amplifica los miedos ante escenarios distópicos que no reflejan la realidad tecnológica actual”
- Muchas personas confunden los sistemas de IA del presente, que son especializados y limitados, con la Inteligencia Artificial General (AGI), que todavía se encuentra en una etapa puramente teórica
Los bulos y las fake news cargados de alarmismo se han colado en la conversación pública sobre la Inteligencia Artificial (IA). Las advertencias ante robots "superinteligentes" que podrían rebelarse contra la humanidad o la destrucción de millones de empleos, son solo algunos ejemplos de mensajes catastrofistas. Por ello, las instituciones académicas, los medios de comunicación y los desarrolladores de la nueva tecnología, tienen la responsabilidad de explicar a la sociedad los avances con claridad, separando los hechos de las especulaciones.
“Los mensajes alarmistas sobre la IA suelen provenir de una combinación de tres fuentes: periodistas que buscan titulares impactantes, líderes tecnológicos que alertan de riesgos futuros como forma de legitimar su papel regulador y sectores afectados por la automatización que temen perder relevancia. Aunque también la cultura popular, con películas como Terminator o Ex Machina, juegan un papel clave en la construcción de narrativas apocalípticas sobre la Inteligencia Artificial, basadas en la idea de que las máquinas podrían superar y eventualmente reemplazar a los humanos”, según reflexiona Francisco José García-Ull, profesor de la Universidad Europea especialista en IA y Análisis de Datos.
En su opinión, uno de los principales problemas es que “muchas personas confunden los sistemas de IA actuales, que son especializados y limitados, con la Inteligencia Artificial General (AGI), que todavía está en una etapa puramente teórica. Esta confusión amplifica el impacto de las fake news al jugar con miedos relacionados con la autonomía y la toma de decisiones de las máquinas, cuando lo que debería preocuparnos es una sociedad gobernada por personas que piensan como máquinas y no al revés”.
Para combatir la desinformación, el profesor García-Ull considera esencial promover la alfabetización tecnológica y un discurso público más informado. “Las instituciones académicas, los medios de comunicación y los desarrolladores de IA tienen la responsabilidad de explicar a la sociedad los avances con rigor y claridad, separando mitos de especulaciones. Además, es crucial diseñar sistemas de IA con transparencia y principios éticos claros, asegurando que las decisiones automatizadas sean comprensibles y auditables”, afirma. Y añade que “cada innovación tecnológica altera las dinámicas sociales y económicas, pero también genera nuevas formas de trabajo y organización, neutralizando uno de los temores más recurrentes: la supuesta destrucción de puestos de trabajo”. El experto de la Universidad Europea concluye que “el mayor peligro no es la tecnología en sí, sino cómo se usa y cómo se comunica”.