Idoia Salazar: ‘La IA puede hacer mucho mal, si se usa mal’


Conversación tranquila de @jmfrancas con Idoia Salazar, @idoiasalazar, presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial, OdiseIA y profesora de la Universidad CEU San Pablo.

Tuitter:@jmfrancas Webhttp://sinpostureo.com bloghttps://www.noentiendonada.es,      YouTubehttps://www.youtube.com/channel/UCUGcEzxyMJwuOCBNnjwPDxg?view_as=subscriber Canal de Telegramhttps://t.me/joinchat/AAAAAE9v5rySdN0b09ak1Q

JMF: ¿Qué es OdiseIA?

IS: OdiseIA es el Observatorio del Impacto Social y Ético de la Inteligencia Artificial. Una asociación, sin animo de lucro, creada en España con el fin de realizar acciones concretas para impulsar la inteligencia artificial pero de un punto de vista responsable y ético.

JMF: ¿Qué es la Inteligencia Artificial?

IS: La Inteligencia Artificial (de manera simplificada) no es más que sofware, es decir, un programa informático dotado de una serie de peculiaridades que lo asemejan a la ‘inteligencia humana’. Por ejemplo: la capacidad para tomar decisiones. Esto, unido a los prejuicios que tenemos derivados de la ciencia ficción, hace que mucha gente sienta confusión respecto a las capacidades reales de esta tecnología. Y se piense incluso que puede llegar a superar a los humanos. Pero no es así. Además estamos en un momento muy incipiente de la IA, en la llamada ‘Inteligencia Artificial débil’, en el que estos algoritmos de Inteligencia Artificial dependen de un programador humano y solo son capaces de hacer muy bien una tarea muy concreta. Otra cosa será en un futuro, si la IA sigue desarrollándose, cuando esta tecnología alcance (si es que llega a alcanzarla) el nivel fuerte. En ese momento, si los humanos no hemos sido capaces de acompañar de manera conveniente a esta tecnología, desde un punto de vista ético y sin permitir demasiada autonomía, sí podríamos tener un problema.

JMF: ¿Es compatible la ‘ética’ con el desarrollo de la Inteligencia Artificial? Lo digo porque en nombre de los algoritmos ya hay quien actúa de ‘censor objetivo’ es decir de inquisición laica.

IS: Por supuesto que es compatible la ética con el desarrollo de la IA. De hecho, más nos vale, como Humanidad, que lo sea. La Inteligencia Artificial hay que verla como una tecnología más. A lo largo de nuestra Historia, los humanos hechos realizado muchos inventos que nos han ayudado a seguir desarrollándonos como especie y nos han aportado comodidad. Hoy en día vivimos en un mundo inundado de datos. El BIG DATA es el petróleo de nuestro siglo y la única manera de explotarlo es a través de ‘herramientas’ que permitan procesar de manera eficiente todos esos datos y nos AYUDEN a los humanos a tomar buenas decisiones en base a ellos. Estas herramientas son los sistemas de IA y por eso es bueno que sigan desarrollándose. Pero, dada la capacidad que tiene la IA de tomar decisiones de manera autónoma, hay que tener cuidado de no permitir el 100% de esa autonomía en los casos en los que no proceda. Es decir en prácticamente todos los que conlleven un impacto importante en la población. Ej: Casos de diagnósticos o tratamientos médicos, decisiones judiciales… En todos ellos la máquina (los sistemas de IA) pueden ayudar a la decisión del humano y mejorarla, pero nunca delegar al 100% la decisión en ella. Imagina: La responsabilidad sería de ella, si algo sale mal… y una máquina no puede tener responsabilidades. Como hemos dicho al principio no es más que un software, una herramienta. Por lo tanto, el que tiene que tener ética por ahora y esperemos que por mucho tiempo sigue siendo el humano (para bien….y/o va veces para mal…).

JMF: Ese es un titular de la prensa digital: ‘Así enseñamos a los robots a ser más humanos’. ¿Qué opinas?

IS: Es un titular un poco sensacionalista…, probablemente para llamar la atención. Pero es cierto que los humanos estamos intentando hacer cada vez más parecidos a nosotros a los robots. Primero en apariencia (como el robot Sophia, que tiene apariencia humana y hasta nacionalidad) y ahora en mentalidad. El desarrollo del lenguaje natural, que permite a las máquinas comunicarse con nosotros en nuestra misma lengua y que nos entiendan, está muy avanzado. Aunque aún no al 100%.. Solo hay que ver los dispositivos inteligentes que cada vez tenemos más personas, como Siri, Alexa o Google home. Cada vez son capaces de entendernos mejor. En un futuro próximo, la interacción será mucho mayor. Se convertirán en nuestros asistentes personales y nos facilitarán mucho la vida. Irán aprendiendo de nuestros gustos, manías, preferencias de todo tipo… Ahora nos puede llegar a dar miedo, pero probablemente los hijos de nuestros hijos no imaginarán la vida sin ellos. En ese momento, estos sistemas inteligentes tendrán muchas similitudes o imitaciones de comportamiento de los humanos… Podría llegar a convertirse en un peligro, o en algo no tan positivo, si no ponemos ciertos límites. Me refiero, por ejemplo, a que una máquina (un sistema de IA) siempre se debe identificar como un sistema de IA, al realizar la interacción. Debe de quedar clara la diferencia. No creo que debamos llegar a un mundo (como ya ha pasado en algunos sitios de Japón) en el que haya personas que se casen con un robot o una IA.

JMF: Hablas de ciertos límites, pero será muy grande la tentación de algunos de no ponerlos…

IS: Pues sí… eso seguro. Como suelo comentarles a mis alumnos de la Universidad, los límites no hay que ponérselos a la tecnología en sí. El problema no suele ser la tecnología. Si no el uso que los humanos hacemos de ella. La IA puede hacer mucho bien…pero también mucho mal, si se usa mal. Es muy poderosa. Los Gobiernos internacionales, por ejemplo la UE, están intentando empezar a legislar sobre casos de uso concretos de la IA. Por ejemplo, para poner límites al reconocimiento facial o a al nivel de autonomía que dejar a los algoritmos de IA. Pero la elaboración de leyes es lenta y la evolución tecnológica muy rápida en la actualidad…, por eso se está intentando fomentar la ética y la responsabilidad HUMANAS, no de las máquinas, para prevenir desastres o cosas negativas…. También se están desarrollando mucho profesiones relacionadas con la protección de los datos (que es la fuente que necesitan los algoritmos de IA para funcionar). Estos profesionales en ciberseguridad serán cada vez más demandados porque, como dices, la tentación de hacer el mal con los algoritmos de IA es un hecho…

JMF: Big Data, IA, ¿cuál es el futuro?

IS: El futuro lo estamos construyendo ahora. Y de nuestras decisiones AHORA dependerá el futuro que tengamos. Eso sí, nos espera un futuro apasionante, en el que todo cambiará muy rápido. la rapidez de evolución será cada vez mayor. La IA es solo una de las tecnologías que complementará otras en los próximos años: revolución genética, computación cuántica…. Quizá, en 20 o 30 años, si echamos la vista atrás, no reconozcamos nuestro pasado. 

JMF: Pero ojalá, lo reconozcamos o no, no lo anhelemos al ser todos más esclavos que ahora. Hay mucha gente preocupada por eso y no les falta cabeza…

IS: Eso también depende de nosotros mismos. No nos engañemos… (estoy hablando de las sociedades democráticas). Nosotros tenemos capacidad de elección. Otra cosa es que nos dejemos llevar sin criterio porque las máquinas nos dan lo que supuestamente nosotros queremos. Al final somos nosotros, las personas, las que podemos tomar la decisión final sobre algo. Nadie nos pone una pistola en el pecho a la hora de decidir qué película ver en Netflix o qué producto comprar en Amazon pero, a veces, nos quejamos de que parece que la máquina decide por nosotros. Debemos de concienciarnos de que no es así. Que la máquina puede dar una recomendación. Una guía. Pero al final somos nosotros los que debemos tomar la decisión final en función de lo que nos apetezca en ese momento. Para ello, debemos desarrollar mucho más nuestro CRITERIO PERSONAL. Es importante y es algo que se debe fomentar en los colegios. Eso sí… si nos seguimos dejando llevar… sí que tendremos un problema.

JMF: Me has hablado de las sociedades democráticas, pero han votado cada cosa, recuerdas a Hitler… ¿Cómo podemos contrapesar a los ‘malos’?

IS: Probablemente, si la encaminamos bien, la IA ayudará a ‘democratizar’ y a tomar mejores decisiones a los humanos. Como bien dices, los humanos hemos tomado decisiones muy malas a lo largo de la Historia, consciente o inconscientemente (esto último es lo más peligroso). Con esta tecnología tendremos la posibilidad de contrastar mejor nuestras decisiones. Imagina un juez corrupto. Si tiene un sistema de IA que ‘trabaja’ con él, y su decisión no coincide con la del juez, se puede controlar mucho más este problema. Aunque hoy día aún no sería posible. Los sistemas de IA más eficientes son como ‘cajas negras’ y no se puede ver el proceso que han seguido para tomar las decisiones. Por este motivo se está investigando mucho para conseguir ‘abrir’ esas cajas negras. Cuando lo consigamos estos algoritmos de IA podrán usarse en multitud de casos, como el del juez que comentábamos.

JMF: Puede dar la sensación de que soy reacio a la ciencia o a la tecnología, nada más lejos de la realidad, soy si reacio cada día más a algunos personajes amorales que gozan de demasiado poder y por tener más no se paran ante nada y mira que hay ejemplos muy cerca y bien lejos. Lo que quiero es defenderme y defendernos de ellos…

IS: En ese caso me estás hablando de personas poco éticas. No de máquinas ‘poco éticas’. El problema, entonces, seguimos siendo nosotros, las personas. No la tecnología.

JMF: Sin duda, la máquina es un medio y cuanto más avanzado mejor, las personas sin ética son el problema. ¿Cómo se las combate?

IS: Eso es uno de los grandes dilemas de la humanidad. Es más fácil combatir a las máquinas que a las personas. Por decir algo, creo que la educación puede contribuir de manera significativa. Es muy importante formar personas, con valores. Es importante invertir tiempo y dinero en ello. Ya que de ello depende luego cómo se comporten estas personas frente a las tecnologías y frente a otras situaciones personales y profesionales. A veces, desde la política, no se da el suficiente valor a la educación. Y considero que es un factor clave. Como comentaba antes. No se trata de enseñar solo matemáticas, lengua, o ciencias…, si no enseñar a desarrollar los valores, y habilidades tan importantes como la capacidad crítica.

JMF: Por cierto enhorabuena por estar incluida entre las «100 Brilliant Women in AI Ethics». Ojalá cambie la educación y se transmitan valores. La reciente Ley educativa aprobada en España no va precisamente en esta línea… De ahi parte de mis temores.

IS: Gracias!. Ya lo sé… parece que nuestros políticos todavía no quieren verlo… Como comentaba antes es tremendamente importante ese ‘cambio de mentalidad’ de todos y eso se conseguirá si se fomenta desde el Gobierno. Es una PRIORIDAD muy importante y no se debe minusvalorar. Si seguimos ‘jugando’ con las leyes de educación de la manera que lo estamos haciendo, sí acabaremos con lo que comentabas: siendo esclavos de la tecnología y de los gobiernos, y de las grandes tecnológicas. Nosotros, la sociedad civil, estamos haciendo cosas que lo fomentan: por ejemplo en OdiseIA damos cursos de formación a todos los niveles, y yo he escrito algunos libros divulgativos (el último junto a Richard Benjamins: ‘El Mito del Algoritmo: cuentos y cuentas de la inteligencia Artificial’), que tratan de desmitificar esta tecnología y explicar (con palabras sencillas) a toda la sociedad cuáles son las ventajas y desventajas reales y las implicaciones reales. Pero, como decía, no es suficiente. Esto debe de ser impulsado desde el Gobierno con políticas activas que ayuden a al ciudadano del siglo XXI a adentrarse de manera segura en su futuro (que casi es ya su presente).

JMF: Mil gracias Idoia, no te quito más tiempo, prefiero tenerte en más ocasiones que acabes harta de mi. Un beso y, si me dejas, seguimos en contacto.

IS: Ok Josep! Un placer. Encantada de conocerte y aquí me tienes cuando quieras. Feliz Navidad y feliz año!

JMF: Igualmente para ti.


4 comentarios en “Idoia Salazar: ‘La IA puede hacer mucho mal, si se usa mal’

  1. El robot sera todo lo «humano» o deshumanizado que quiera el tío que lo fabrica.
    De manera que habrá que hacer leyes que impidan que un fulano peligroso construya robots.
    Es lo mismo que pasa con la genética y la fabricación de un hombre a partir de un laboratorio, al que se le daría la genética y las características que el constructor quiera

  2. «Como bien dices, los humanos hemos tomado decisiones muy malas a lo largo de la Historia, consciente o inconscientemente (esto último es lo más peligroso).»
    Me quedo con esta frase, la inconsciencia humana es muy peligrosa cuando no sabe lo que hace o a quien vota. Véase el ejemplo actual de los EE.UU. la masa asaltando el Capitolia… ¡inaudito!

  3. Pingback: Algoritmos, sesgos y discriminación en su uso: A propósito de recientes sentencias sobre el tema |

  4. Pingback: Algoritmos, sesgos y discriminación en su uso: A propósito de recientes sentencias sobre el tema | Centro Interamericano de Administraciones Tributarias

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *