Idoia Salazar: «La inteligencia artificial no es una opción, es una necesidad»

Laura de Grado | Madrid - 24 enero, 2023
La inmensa cantidad de datos que existen en la actualidad que el cerebro humano no es capaz de procesar hacen que la inteligencia artificial ya no sea una opción, sino «una necesidad», asegura Idoia Salazar, doctora en periodismo especializada en nuevas tecnologías y fundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA).

Por este motivo, la experta considera urgente reparar en los riesgos reales de estos sistemas y de qué manera mitigarlos para que, por ejemplo, no reproduzcan sesgos de género, clase social o raza ni acaben desarrollando respuestas perjudiciales para la sociedad.

Y anima a «usarlos como una ayuda a las decisiones humanas, pero no como una sustitución«, explica durante una entrevista con Efeminista desde un aula de la Universidad CEU San Pablo, Idoia Salazar, autora de los libros divulgativos «El algoritmo y yo: GuIA de convivencia entre seres humanos y artificiales», «El mito del algoritmo: Cuentos y cuentas de la Inteligencia Artificial», y «La revolución de los robots: Cómo la inteligencia artificial y la robótica afectan a nuestro futuro».

Periodista de formación y con experiencia laboral en EFE, Cinco Días o El País, empezó a interesarse por las nuevas tecnologías y su impacto en la sociedad. En 2019 fundó OdiseIA para impulsar, de la mano de más de 200 socios, el uso responsable de la inteligencia artificial (IA) en todas las áreas.

Actualmente Salazar forma parte del equipo de especialistas en IA del Parlamento Europeo y colabora con la Secretaría de Estado de Digitalización e Inteligencia Artificial en un proyecto piloto para poner en marcha el primer ‘sandbox’ (banco de pruebas) regulatorio de la Unión Europea sobre esta disciplina.

«El futuro de la IA depende de las acciones que hagamos ahora»

Pregunta (P).- Dirige y co-fundó el Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA). ¿Por qué decide fundar este observatorio?

Respuesta (R).- Surge por la necesidad de contar con un organismo práctico que realmente se limitara a aterrizar la inteligencia artificial (IA) y la ética. Desde que nos fundamos en 2019 nos hemos aliado con las empresas no solo para teorizar, sino para bajar toda la teoría a la práctica, a las necesidades sociales reales y así conseguir que cada vez tengamos un impacto más positivo de la IA y que empecemos a concienciarnos sobre los riesgos reales y de qué manera mitigarlos, de qué manera nos puede ayudar y en qué temas específicos el ciudadano debería temer. Realmente el futuro de la inteligencia artificial depende de las acciones que hagamos ahora.

El reto de extraer los sesgos de género y raza

P.- Se habla mucho de inteligencia artificial, que ha sido, además, elegida palabra del año 2022 por la RAE. Pero cuando nos acercamos a los datos de participación, vemos que menos del 25 % de las personas que se dedican a la investigación en este área son mujeres, que además únicamente son el 18 % de quienes dirigen proyectos en el ámbito empresarial dentro de la IA. ¿Qué supone esto? ¿Qué consecuencias puede traer?

R.- Al final lo que hace un sistema de IA es procesar datos y extraer conclusiones. Las mujeres y los hombres somos diferentes y tenemos diferentes puntos de vista, por lo que es muy importante esos puntos de vista diversos en sexo, raza, clases sociales o interdisciplinar. Para que realmente haya una inteligencia artificial útil para la sociedad y que no sea injusta, es necesario que el equipo que crea la empresa tenga tanto perfiles de mujeres como de hombres, e interdisciplinares, de Humanidades, de filosofía, psicología, sociología e ingenieros de datos, etc.

P.- Si los datos que se analizan tienen estos sesgos, ¿se puede conseguir que las conclusiones qeu extrae IA no los tenga? ¿Cómo se consigue?

R.- Se está trabajando mucho en herramientas concretas que lo que hacen es extraer estos posibles sesgos de los datos para procesarlos de manera correcta y que se extraigan conclusiones sin sesgos. Sin embargo, en el uso de sistema de inteligencia artificial para tomar decisiones, por ejemplo, en casos de planes de pensiones, o si yo voy a ser admitida o no en una universidad o en un puesto de trabajo; la decisión final tiene que ser del ser humano, porque de esa manera la persona puede percibir si hay algo extraño en la decisión del algoritmo.

«Será crucial para nuestro futuro no dejar sin supervisión las decisiones de los sistemas de IA»

En este caso una de las labores que tenemos que hacer y que será crucial para nuestro futuro es no dejar sin supervisión a estas decisiones de los sistemas de IA. Muchas veces tendemos a delegar en estos sistemas y esa excesiva confianza puede llevar a que tengamos un momento en que la IA se equivoca, como nos equivocamos los humanos, y la decisión le llegue a la persona y a la sociedad de una manera dañina. Lo que podemos hacer ahora es no confiar excesivamente en los sistemas de IA y usarlos como una ayuda a las decisiones humanas, pero no como una sustitución.

Inteligencia artificial en la toma de decisiones

P.- Ha dado algunos ejemplos de situaciones en las cuales se usan o se pueden llegar a usar los sistemas de inteligencia artificial. ¿De qué manera la IA ya es parte de nuestra cotidianidad y qué impactos puede llegar a tener?

R.- La tenemos ya en nuestra rutina diaria desde el momento en que vemos Netflix, por ejemplo, donde tenemos un sistema de inteligencia artificial que analiza nuestros gustos en función de lo que vamos viendo y nos ofrece una serie de recomendaciones. La cuestión es no ver estas recomendaciones como una orden hacia nosotros.

Es muy importante que todas las personas creemos una consciencia sobre este nuevo mundo de los datos, porque detrás de estos sistemas de inteligencia artificial que ofrecen recomendaciones hay empresas. El problema no son los sistemas de inteligencia artificial, el problema o lo que tenemos que, entre comillas, temer son estas empresas que están gestionando todos estos datos.

Realmente la perfección en la toma de decisiones se consigue con una mezcla, es decir, el ser humano toma las decisiones pero apoyado por estos sistemas que lo que hacen es gestión masiva de datos en un tiempo récord y es capaz de aportar eficiencia y transparencia a las decisiones humanas.

Un mundo de datos

P.- La Unión Europea está desarrollando un reglamento que propone multar a las empresas que desarrollen sistemas de IA dañinos, una norma que puede definir las bases para regular esta tecnología en todo el mundo. ¿En qué estado está este reglamento? ¿Realmente puede ser una solución?

R.- El hecho de poner una regulación específica sobre inteligencia artificial creo que es la acción correcta en este sentido. Es cierto que la ética, lo que estábamos haciendo hasta ahora, está muy bien, pero realmente no es vinculante. Y realmente es muy necesario que estos sistemas tengan cierto control para que el impacto en la sociedad sea positivo.

Lo que ha hecho la Unión Europea también tiene una cuestión muy clara que es fomentar la confianza. Porque piensan, yo también opino lo mismo, que la inteligencia artificial ahora mismo no es una opción, es una necesidad. Vivimos en un mundo de datos y nuestro cerebro no es capaz de procesar correctamente todos los datos que generamos, y la IA es una herramienta que usamos para procesar todos esos datos, lo cual nos va a hacer ser más eficientes.

Idoia Salazar inteligencia artificial

Idoia Salazar, presidenta y co-fundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA), durante una entrevista con Efeminista. Foto: EFE/Laura de Grado

Hacia un Reglamento europeo sobre inteligencia artificial

P.- ¿Cómo funciona esa regulación?

R.- La UE ha decidido regular sobre casos de uso específicos, es decir, no regula la tecnología en sí misma, sino las cuestiones especificas que considera que pueden ser perjudiciales si no se regulan bien. Ha establecido como un semáforo: en rojo, tenemos que ningún miembro de la Unión Europea va a poder, por ejemplo, usar sistemas de inteligencia artificial para vigilancia masiva. El naranja alude a los sistemas de alto riesgo que pueden tener una incidencia directa sobre mi vida, como, por ejemplo, que me admitan o no en un puesto de trabajo. En estos casos necesitan una supervisión extra y van a tener que pasar por este Reglamento.

Después tenemos el amarillo, que son sistemas de inteligencia artificial usados para acciones que puedan suponer un problema de confusión ciudadana, por ejemplo, «deep fakes» que es el uso de vídeos en la televisión o en Internet que suplanta la identidad de una persona, y que tendrán que estar rotulados diciendo que han sido hechos por un sistema de inteligencia artificial. Y después, tenemos el semáforo verde que es el uso para hacer un mero automatismo, que no supone incidencia para el ciudadano.

Educación y políticas específicas

P.- Habla de regulación, ¿se necesita algo más para mitigar los efectos dañinos de este sistema?

R.- Es muy importante la educación. Hoy en día los jóvenes están haciendo uso de estas tecnologías IA y lo que hacen es asumir la herramienta en sí misma y el problema es que no te das cuenta de las consecuencias. Debemos estar preparados. A lo mejor hace falta un cambio del modelo educativo tanto en los colegios como en las universidades, pero también educar y formar a personas mayores, que reciben este impacto.

Se deben hacer políticas específicas para que todos comprendamos qué son las IA y nos quitemos los mitos de esos humanoides que acaban con la humanidad. Yo temo más al ser humanos que al sistema de IA. Gracias a estos sistemas de inteligencia artificial podremos, por ejemplo, predecir futuras pandemias, prever terremotos y ayudar en labores de reconstrucción. El problema no está en la tecnología, sino en el uso que se hace la tecnología y al final estas cuestiones de los sesgos y de los problemas que hay con la inteligencia artificial siguen siendo problemas humanos. Es muy importante volver a focalizarnos en que el ser humano use bien la tecnología que tenemos a nuestra disposición.