Orlando Avila, uno de los autores del segundo informe del Observatorio de Inteligencia Artificial de la Universidad Europea asegura que “la Inteligencia Artificial nos ha puesto grandes desafíos a los elementos de confidencialidad y la protección de datos”
La implementación de la Inteligencia Artificial tanto en la Educación Superior como en el resto de los ámbitos tiene grandes ventajas, pero también grandes retos a los que hacer frente que pasan por su gobernanza y regulación para que su uso sea ético y seguro. Esta es una de las principales conclusiones del segundo informe del Observatorio de Inteligencia Artificial recientemente publicado y como resultado del trabajo realizado por profesores de la Universidad Europea de Madrid y la colaboración de expertos externos.
Orlando Avila, es investigador principal del orbital de Inteligencia Artificial (IA) en ARQUIMEA Research Center, el centro de investigación de la compañía tecnológica española y uno de los autores del informe. Para él “en la regulación de la Inteligencia Artificial dentro del sector de la educación, los líderes académicos tienen toda la responsabilidad de garantizar que la IA esté implantada de forma ética y segura. Esto incluye la inserción de políticas claras para el uso de datos, la seguridad en las redes informáticas y la protección de la privacidad”.
Avila recalca la importancia que ha tenido la reciente aprobación de la Ley de Inteligencia Artificial por parte de la Unión Europea en la necesidad de poner sobre papel su gobernanza y control. Se trata de la primera ley integral sobre Inteligencia Artificial del mundo que regulará las mejores condiciones de desarrollo y uso de esta tecnología innovadora.
Aunque para el ingeniero e investigador, especialista en ciencias de la computación e IA, “es una ley pionera en el mundo y que ya ha empezado a regular antes de que salieran algunos modelos de lenguaje” en su opinión “ha tardado mucho en salir y se ha quedado en un marco poco ambicioso y demasiado general”
La Inteligencia Artificial y la lucha contra la desinformación
Orlando Avila asegura que el sistema universitario, sí está preparado para la llegada de la Inteligencia Artificial: “Soy optimista y el ser humano tiene una gran capacidad de adaptación. Lo importante es identificar las herramientas y los beneficios de ello, porque nos va a ayudar a tener más tiempo libre, a evitar el trabajo que no nos aporta un beneficio emocional, el trabajo tedioso y repetitivo”.
Sin embargo, apunta que, en este sentido también surgirá la necesidad de aterrizar esa ley en una serie de regulaciones específicas que pasan por la parte ética y el uso confiable de la IA: “Será necesario su control para que no alimente la desinformación que nos podamos encontrar ni se utilice para hacer daño a las personas y a las sociedades”.
“Ahora, sin ser un experto en marketing, se puede personalizar y customizar un relato, un mensaje a un público determinado que pueda funcionar, porque así ha aprendido de los modelos de lenguaje, pero pasa lo mismo con la desinformación. Cualquiera puede crear un mensaje que sea irreal, tóxico, más pegadizo, que llegue a más gente en mucho menos tiempo” explica. Y añade: “si a los ‘bots’ de las redes sociales por ejemplo se les da más capacidades para crear mensajes, la desinformación podrá llegar a generarse de manera autónoma, en tiempo real”.
IA como amplificadora de la inteligencia humana
La Inteligencia artificial generativa ha mostrado gran capacidad para transformar todo lo conocido y la universalización del acceso a esta tecnología ha visibilizado la capacidad de las máquinas para realizar tareas que antes parecían exclusivas de los humanos.
El investigador principal del orbital de Inteligencia Artificial en ARQUIMEA Research Center señala que “la IA nos está ofreciendo capacidades con las que antes no contábamos. Puede haber una tendencia que tiene mucho peligro y es la de delegar que las máquinas autónomamente tomen todo tipo de decisiones a través de algoritmos”.
Sin embargo, apunta que “esta visión se contrarresta por la filosofía de que las máquinas tienen que servir para amplificar la inteligencia humana, herramientas que otorguen capacidades para conseguir resolver los problemas más rápido, para conseguir tus objetivos de una manera más efectiva y satisfactoria”. Pero de aquí esboza otro riesgo: “Estas herramientas van a permitir que la gente tome capacidades de la noche a la mañana, y esto puede explotar en diferentes líneas y una más preocupante: puede hacer que solo un conjunto de personas tenga acceso a sistemas de aprendizaje, y que resulte un abismo que vaya mucho más allá de la brecha digital, un abismo que divida las capacidades cognitivas entre los que se pueden permitir el acceso a este tipo de herramientas avanzadas de amplificación de su inteligencia, y los que no”.
Con el objetivo de emitir un informe anual en el que se recoja el estado actual de madurez de la IA y su previsible desarrollo a corto y medio plazo, la Universidad Europea creó el pasado septiembre de 2023 un observatorio de Inteligencia Artificial enfocado en Educación Superior. Este observatorio está integrado por prestigiosos profesionales en el ámbito académico y/o industrial, por profesores senior de la Universidad Europea de Madrid, y por personal no docente con interés en esta disciplina, por sus posibles aplicaciones en el entorno universitario.