Estado del arte de la ética y la inteligencia artificial. Resumen de la charla presentada en DIMAD en enero de 2020
El 30 de enero de 2020 tuve ocasión de presentar esta charla sobre el estado del arte de la ética e inteligencia artificial en la Central de Diseño en el Matadero de Madrid -di_mad-.
Mucho ha cambiado desde entonces con respecto a cuestiones de seguridad, data, libertades individuales, vigilancia, etc., pero me parecía oportuno reflejar por escrito lo que allí conté porque, de una forma u otra , continúa el debate en los mismos foros y la sociedad permanece aletargada confiando en una especie de espúrea salvación científico-tecnológica.
¿A quién tenemos en esta imagen? ¿Qué representa esta escultura?
El titán Prometeo, hijo de Atlas en la mitología, robó el fuego a los dioses del Olimpo para entregárselo a los hombres. Esta osadía le valió un cruel castigo. A saber: tendría que vivir encadenado en el monte Atlas mientras cada día un águila le devoraba las entrañas que se recomponían por la noche para volver a sufrir el castigo al día siguiente y así para toda la eternidad.
Desde tiempos inmemoriales la humanidad se ha guiado por la pulsión de sobrevivir. Estamos programados para la supervivencia: desde el descubrimiento del fuego, la creación de armas para la caza, la invención de la rueda, la locomotora de vapor, las máquinas y de ahí a nuestros días con la súper computación cuántica, la ingeniería genética…y también, como nos recuerda la historia de Prometeo, programados para no transgredir ciertos límites, no vaya a ser que los “dioses” se sientan amenazados.
El inconsciente colectivo de la Humanidad
En todas las épocas ha habido detractores — recordemos el movimiento ludita en la revolución industrial o el unabomber a finales de los ochenta del siglo pasado-, e impulsores de los avances tecnológicos, anclados en ese sentimiento de reducir el dolor y sufrimiento por elegir el camino de idear mecanismos que imiten y amplíen las capacidades humanas.
La literatura y la ciencia ficción han sido manifestaciones de esos anhelos hasta nuestros días. Tenemos constancia de los autómatas de Ramón Llull y E.T.A Hoffman, del robot María de Fritz Lang, David, el niño de la película IA al que logran programar para amar a su madre, Frankenstein, el mito del Golem en la cultura judía o la historia de Pinocho -la marioneta que quería ser humana-, hasta Sofía, la robot que ha conseguido la ciudadanía saudí; robots policías en Dubai y asistenciales en Japón, algoritmos capaces de tomar decisiones autónomas…
Criaturas a imagen y semejanza
Todas esas creaciones tienen algo en común y es que las han configurado los humanos y les han dado una especie de “libre albedrío” con el aprendizaje por refuerzo y la evolución a la IA de propósito general, para moverse y operar en un mundo configurado por humanos.
Entonces, ¿qué responsabilidad se puede exigir a esas creaciones si, cual marionetas, al final de los hilos están precisamente sus creadores?
La primera respuesta que puede venir a nuestra mente es la que aporta Chris Duffey, responsable de innovación y estrategia de Adobe: “La tecnología no es buena ni mala, es solo un reflejo de lo que los humanos han creado”. Parece simple. Es como decir que las armas no matan, son las personas quienes matan.
Esta postura se conoce como instrumentalismo y defiende la neutralidad de la tecnología.
Como no hay haz sin envés, podemos tratar también la corriente contraria, la del determinismo, y su postulado de que la tecnología es cualquier cosa menos neutral por aquello de moldear nuestras decisiones y acciones.
Como a mi entender y fiel a Aristóteles, en el punto medio está la virtud, prefiero quedarme con la teoría de Peter Paul Verbeek, filósofo holandés que ha creado la teoría de la mediación. Esta defiende que la tecnología es un medio a través del que manipulamos nuestro mundo y depende de nosotros desarrollar un nivel de consciencia óptimo para usarlo correctamente.
¿Y qué es usarlo correctamente?
Es en este momento en el que aflora la reflexión y buscamos respuestas en la ética, en “el arte del buen vivir” nos vienen a la mente los aforismos de Lichtenberg en los que describe los cuatro principios de la moral.
El primero apoyado en la La Filosofía (con mayúscula) nos enseñó cuáles son las dimensiones de ese “bien” consistente en llevar a la práctica la virtud como único fin y por respeto a la ley natural. El segundo, el punto de vista religioso, nos indicaba que el obrar bien no es más que practicar la voluntad de Dios. Luego llegaría la dimensión humana: hacer el bien por amor propio y por nuestro propio bienestar y por último, la dimensión política: partiendo de la consideración hacia uno mismo hay que buscar la prosperidad de la sociedad de la que se forma parte.
Los engranajes de nuestra sociedad actual están compuestos en su mayor parte por la dependencia de la tecnología, lo que nos lleva a enlazar con la siguiente pregunta: ¿Cómo relacionamos ética con tecnología?
La tecnoética es la especialidad que se ocupa de las cuestiones morales que surgen de la aplicación de la tecnología. Sus áreas de interés se apoyan en dos vertientes, una una centrada en el comportamiento moral de los seres humanos que conceptualizan, diseñan, construyen o usan la tecnología y otra vertiente preocupada por el comportamiento moral de los productos artificiales resultantes.
Como ejemplo de esta última preocupación es interesante recordar cómo Isaac Asimov difunde las tres leyes de la robótica, atribuidas a John Campbell en 1942.
Desde la década de los 40 se viene especulando sobre la necesidad de regular y poner límites a los productos de la tecnología. Es así como llegamos a la situación actual y nos preguntamos ¿Qué sucede con la inteligencia artificial en el momento presente para que incluso se esté promoviendo la creación de comités de ética en las empresas?
Etapas de la inteligencia artificial
No hay una definición única para la inteligencia artificial, pero se puede describir como la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades o superiores a las de los seres humanos.
En el gráfico se pueden los hitos más destacados de cada una de las fases por las que ha ido pasando la inteligencia artificial.
Ahora estaríamos en la “ANI Intelligence” o “inteligencia estrecha” en la que los sistemas son capaces de aprender a partir de unas pautas dadas, pueden incluso percibir el entorno y actuar para responder de manera óptima a una serie de tareas concretas.
Las mentes más brillantes de nuestra época nos han advertido de que si bien de aquí a diez o veinte años la IA llegará como mucho a tener la inteligencia de un perro o un gato, es decir, considerará que todas las demás inteligencias son igual que ella, deberíamos empezar a preocuparnos a partir de esa frontera ficticia de 2045. Los más optimistas como Raymond Kurzweil, director de ingeniería de Google, consideran que la IA tendrá la inteligencia de un mono y en este punto crítico será capaz de darse cuenta de que es una especie diferente a la humana: podrá reprogramarse, contará con pensamiento subjetivo, emociones y consciencia.
¿Qué sigue a esto? El universo cíborg(cibernética y orgánico) que reclama el derecho a la libertad morfológica y diseñarse a sí mismos y el transhumanismo. O la singularidad, momento en el que abandonaremos nuestra biología y pasaremos a ser posthumanos, es decir, en lugar de ser seres conscientes en unidades de carbono, trasladaremos esa consciencia, memoria y emoción a unidades de silicio o máquinas.
De vuelta al marco temporal en el que estamos viviendo, vamos a centrarnos en el ahora. Cada día hay nuevas noticias sobre la aplicaciones del big data para el bien social. Llevamos un tiempo experimentando cómo el machine learning nos ofrece sistemas de recomendación muy potentes, tenemos asistentes personales como Alexa o Cortana, coches autónomos circulando por las calles en breve, drones capaces de luchar contra la deforestación. algoritmos para optimizar el tráfico y detectar el fraude fiscal, análisis predictivo para mejorar nuestras cosechas, patrones de diagnóstico eficiente en medicina, asesoramiento híper personalizado en materia financiera…
Entonces, en este maná de soluciones alineadas con la humanidad: ¿a qué se debe tal alboroto?
Recurramos a una de las fuentes del drama en nuestra sociedad: los medios de comunicación.
Un repaso por las noticias, reportajes y artículos de opinión evidencia la división del mundo y los diferentes intereses y velocidades entre Estados Unidos, Rusia, Europa, Japón y China.
China es la pionera en la implantación de sistemas de inteligencia artificial por ejemplo con su sistema de crédito social entre la ciudadanía o la obligación de usar, en muchas plantas de producción, cascos para transmitir niveles de ansiedad en el puesto de trabajo, cámaras de vigilancia por doquier… Pero sin entrar a juzgar el uso de la IA por un estado totalitario, ni otros muy conocidos como el de Cambridge Analytics y su manipulación en la intención de voto, vamos a fijarnos en otros casos cotidianos.
Nos encontramos con situaciones parecidas a:
- Las corporaciones detentan datos de clientes sin que exista un control de qué se hace con esos datos ni a quién pertenecen. Y muchas veces esas corporaciones son más poderosas que los Estados Nación.
- Los robots no están preparados para ayudar en todos los contextos y en todas las situaciones. Tienen fallos. Son máquinas limitadas.
- Los algoritmos reproducen los sesgos de los humanos que los crean.
- Los humanos pueden vulnerar la seguridad de muchos sistemas, entre ellos los agentes de voz.
- Ya existen inteligencias artificiales capaces de visualizar los pensamientos.
- Cada vez más se habla de reconocimiento facial e implantar chips en humanos.
- Y con este escenario surgen más preguntas relacionadas con la ética: ¿Llegará un punto en que los robots tendrán sus propios derechos? ¿Debería generarse algún tipo de propiedad intelectual para las IAs creativas?
¿Qué hacemos con las IAS asociadas a armamento autónomo?
¿Se puede hablar de una IA empática?
¿Puede la inteligencia artificial comprender los matices de la justicia?
¿Se puede llegar a detectar el estado de la salud mental de una persona solo con sus patrones de lenguaje, actividad y comportamiento en las redes sociales?
¿Pueden las máquinas llegar a tener responsabilidad jurídica?
Incluso: ¿podría la inteligencia artificial ser más ética que los humanos?
Comprobamos cómo la ciencia y la tecnología avanzan y exploran sus límites sin examinar las consecuencias o sin saber muy bien si sirven a la comunidad, a ese bien social o al poder sin más. Una cosa es que determinadas acciones se puedan llevar a cabo porque se tenga conocimiento, pero ¿se debe de verdad?
Diríamos que existen 8 áreas de riesgo:
- Sesgos discriminatorios por edad, por sexo, condición económica y social.
- Explicabilidad de los algoritmos: que se puedan detallarlas condiciones que se han aplicado para tomar una u otra decisión.
- Confianza: que los datos sean creíbles, completos, contrastados.
- Control sobre los datos: que exista transparencia, que esté claro a quién pertenecen, cuál es la propiedad de los datos y qué actos se consideran ilegales. relacionado con la privacidad para evitar un estado de vigilancia orwelliano.
- Ciberseguridad. Todo tipo de actos criminales y terroristas asociados al uso de la inteligencia artificial.
- Alineación de capacidades humanas: si dejamos toda la responsabilidad de pensar por nosotros podemos llegar a atrofiarnos.
- Cómo va a cambiar el mundo laboral: ¿qué hacemos con la población activa si la robotización elimina los puestos de trabajo? ¿cómo se hará el traspaso de conocimiento tácito?
- La rebelión se las máquinas, la esclavitud de la humanidad y su exterminio por considerarse una raza menos capaz y parasitaria.
Y con esta bruma sobre nuestras cabezas en la que la tecnología refleja lo que somos como especie: ¿Hacia dónde vamos?
El ecosistema de ética e inteligencia artificial nos muestra diferentes perfiles involucrados en tratar estos aspectos. La literatura, papers científicos y actores involucrados durante los dos últimos años es abrumadora.
Para analizarlo mejor, he agrupado las aportaciones de los expertos en tres áreas: el mundo de la universidad o la academia, el entorno empresarial y el área de política y entidades reguladoras.
Entorno de la academia
Nick Bostrom es una de las mentes más clarividentes, un filósofo sueco de la universidad de Oxford. Escribió el libro “Súper Inteligencia” donde hablaba de los peligros de la IA. Texto de gran influencia para definir hacia un lado o hacia otro a mentes tan influyentes como las de Bill Gates o Elon Musk. También es el fundador del Instituto del Futuro de la Humanidad y de la Asociación Transhumanista Mundial.
Él fue el primero en decir que tiene que haber un liderazgo para marcar las reglas del juego ya que el temor a la extinción de la humanidad no es una cuestión baladí o conspiranoica.
Otro representante del mundo de la universidad es Max Tegmark, cosmólogo sueco-estadounidense. Profesor del MIT. Autor del libro “Vida 3.0”. Tegmark recalca cómo la conversación más interesante que tendría que estar teniendo la humanidad es evitar que la IA acabe en desastre y desbanque a la especie humana y cómo su impacto es tan gigantesco en comparación al de otras tecnologías ancestrales que no podemos aprender el prueba/error como hasta ahora, sino que hay que ser proactivos desde los inicios. A la vez advierte de que no podemos dejar la creación de un código moral en manos de los gobiernos ni los tecnólogos y cómo debe ampliarse a toda la sociedad con la participación de economistas, abogados, filósofos y periodistas.
Fyona McEvoy, fundadora de la plataforma, You the data y una de las 100 mujeres más influyentes en ética e IA, menciona la asimetría de los datos y cómo hay que abrir el debate público (de nuevo el debate) para que sea la gente la dueña de sus datos y no las grandes corporaciones o los gobiernos.
Joanna Bryson, profesora de ética e inteligencia artificial en la Universidad de Bath en Reino Unido trabaja en una línea de investigación basada en estandarizar el diseño ético para la inteligencia artificial y los sistemas autónomos. También insiste “No tenemos ninguna obligación ética con una máquina. Es importante pensar qué es la IA y cómo queremos que se use. El rol de la ley nunca ha sido tan crucial”.
El profesor alemán de Filosofía y experto en neuroética de la Universidad de Mainz, Thomas Metzinger, que a su vez forma parte del comité de expertos de la Unión Europea que están trabajando en la configuración de un marco ético para la inteligencia artificial. Subraya que una de las primeras medidas que se deben tomar es que siempre sepamos si estamos ante un ordenador o una máquina. Él ha sido el único sabio de la comisión de expertos que ya tratado la limitación a la que deben ser sometidos los sistemas de armas autónomos pese a las presiones de la industria. Algunas de sus declaraciones: “¿Queremos una Humanidad uniforme bajo un estado totalitario de vigilancia? Cuando un dron programado con reconocimiento facial pueda asesinar a alguien, ¿quién se atreverá a protestar?” Y va más allá: “Estamos ante un tren al que todos consideran que hay que subirse sin saber a dónde va”.
Amber Case, antropóloga e investigadora en el Instituto por el Futuro. Abanderada de la calm technology, acepción acuñada a mediados de los 90, por los investigadores de XEROX PARC Mark Weiser y John Seely Brown, lucha para que las tecnologías no nos quiten tiempo y que éstas estén a nuestro servicio para vivir y crear. Una de sus citas defiende “No necesitamos dispositivos inteligentes, sino humanos inteligentes”. Y vuelve a generar debate exponiendo cómo el hombre no se tiene que comportar como una máquina ni las máquinas como hombres, si no que los dispositivos deberían ayudar a tomar mejores decisiones, pero no sustituir nuestra voluntad.
Think Tank y lobbies sobre ética e Inteligencia artificial
En este sentido se da también una intersección en la que el mundo académico y el empresarial se unen y las principales universidades (Harvard, Stanford…) y los principales centros financieros, empresariales e institucionales del mundo han creado grupos de investigación e interés comenzado a tratar el tema de IA e inteligencia artificial.
Detrás de We The Humans por ejemplo está Banco Sabadell y de Odiseia, entre otros, la Fundación Pablo VI financiada por la Iglesia.
Veni, vidi, vici. El papel de las grandes corporaciones
El primero que llega es el que se lleva el mérito y sienta las bases según sus propios intereses. Ahora mismo la corporación que más datos posee y más avances ha hecho con la súper computación cuántica (aunque IBM lo ponga en duda) es Google.
El gran emporio de Google ha trabajado bastante en alinear aspectos éticos y mundo de data, pero no se termina de posicionar y no está libre de controversias.
En 2019 por ejemplo casi 4.000 empleados hicieron huelga por primera vez cuando trascendió que Google estaba colaborando en un sistema de drones militares con el ejército de Estados Unidos. Era el proyecto Maven que abandonaron de forma un poco turbia. Por otro lado, justo en la época en la que presentaron su código de IA para el bien de la humanidad, también dieron a conocer Duplex, la función del assistant que en su momento era fácilmente confundida con un humano in advertir de que se trataba de una máquina, vulnerando sus propias normas.
Microsoft ha elaborado un código con 6 principios éticos y a la vez una guía para la interacción entre humanos e inteligencia artificial que se basa en directrices como: limitar cambios bruscos o antes de cualquier interacción dejar claro qué puede hacer el sistema y cuáles son sus lagunas. Durante la interacción: evitar sesgos, ofrecer servicios basados en contexto, ofrecer información relevante. Si algo va mal: poder editar o redefinir los fallos de la IA, poder ignorar funcionalidades o clarificar por qué el sistema hizo lo que hizo.
IBM también ha publicado su código y normas éticas relacionadas con la inteligencia artificial y Facebook ha impulsado la fundación TUM para explorar la ética y la inteligencia artificial. Le siguen Deloitte, Accenture…
Protegernos de nosotros mismos
Con todo lo revisado hasta el momento parece que la única manera de protegernos de nosotros mismos es mediante la regulación o la legislación. Sin embargo, en un mundo globalizado: ¿cómo podemos aplicar estas leyes si dependen de los estados y los convenios humanos?
Dado que existe una ética universal, uno de los marcos de referencia que se está considerando es el fijado por la ONU a partir de la “Declaración universal de los derechos humanos” y los objetivos de desarrollo sostenible de la agenda 2030”.
La Organización para la Cooperación y el Desarrollo Económicos (OCDE), centrada en coordinar políticas económicas y sociales de los 36 países que la componen definió una serie de principios generales adoptados por el G20 en junio de 2019.
También el Instituto de Ingeniería Eléctrica y Electrónica (IEEE), asociación de ingenieros mundial para normalización y desarrollo de áreas técnicas ha sentado las bases para generar las directrices de la Unión Europea incidiendo en una IA confiable, asentada en la transparencia, responsabilidad, explicabilidad, justicia, inclusividad, libre de sesgos, fácil de usar, compatible con la legislación general sobre derechos humanos y protección de datos, adaptable a evolución del contexto y del paso del tiempo…
En este sentido las propuestas de la Unión Europea más allá de las grandes dimensiones de la IA tienen que ver con fomentaruna red de open data y acordar una legislación particular para datos relacionados con la salud, crear una especie de etiqueta de certificación confiable similar al “juramento hipocrático”, promover auditorías confiables, promoverla figura de un “Ombudsperson” para defender los intereses de la ciudadanía, impulsar una agenda positiva de la IA mediante acciones de comunicación -no sólo crear códigos de conducta en una línea “defensiva”-, destinar recursos a la capacitación en inteligencia artificial y determinar cuál es la responsabilidad moral de empresas o agentes implicados si se produce algún daño.
Situación en España
Carme Artigas es la nueva Secretaria de Estado. En 2019 se publicó la Estrategia española de I+D+I en Inteligencia artificial, pero el equipo de expertos quiere trabajar en un libro blanco más profundo y operativo sobre ética e inteligencia artificial. En la estrategia se reflejan algunos de los principios a tener en cuenta como la no no discriminación, el impulso de un código ético para los desarrolladores y el uso de la IA para mejorar o reconstruir capacidades humanas y no para suplantarlas, fomentar la educación.
Una de las voces más autorizadas dentro de la IA y la ética en nuestro país es la de doctora Nuria Oliver, quien ha propuesto el acrónimo FATEN para enmarcar los elementos críticos a tener en cuenta cuando se trata con inteligencia artificial
. Fairness. Hacer todo lo posible para que los modelos y algoritmos eviten cualquier sesgo discriminatorio.
. Autonomy. Algo así como que los desarrolles, sujetos a un código de conducta puedan tener autonomía de decisión, elección, libertad de pensamiento y acción sobre los algoritmos.
. Accountability. Hace referencia a dejar clara y manifiesta la atribución de responsabilidad por las consecuencias derivadas de las decisiones algorítmicas.
. Augmentation. Que los sistemas de inteligencia artificial se usen para aumentar o para complementar la inteligencia humana, nunca para reemplazarla.
. Transparency. Que cualquier persona pueda entender el modelo y tenga a su disposición información para saber que está tratando con una máquina, qué tipos de datos y con qué propósito se han empleado en el modelo, etc.
. Education/Beneficence. Invertir en educación y maximizar el impacto positivo de la IA apoyándose en sus efectos positivos para la sostenibilidad, por ejemplo.
. Non-maleficence. Mediante el principio de prudencia, reducir el impacto negativo que pueda derivarse del uso de las decisiones algorítmicas, garantizar la seguridad, fiabilidad y reproducibilidad de los sistemas, así como preservar en todo momento la privacidad de las personas.
Principios, valores, ética como misión conjunta más allá del relativismo moral
Muchas personas se preguntarán cuál es el rol del diseñador en este contexto y cómo desde el proceso de diseño podemos facilitar contextos y proyectos basados en la ética digital. Más allá de mejorar procesos, colaborar con la gestión del cambio y diseñar productos y servicios éticos ha llegado el momento de que impulsemos conversaciones y podamos trabajar de forma transdisciplinar ahondando en preguntas como:
. ¿Cuál va a ser el modelo de colaboración con los clientes para crear narrativas que vinculen al humano y al algoritmo en un marco ético?
. ¿Cómo podemos enfocar la IA hacia el bien común y poner al ser humano en el centro sin caer en el bio conservadurismo ni en el transhumanismo?
. ¿Cómo podemos diseñar productos y servicios que incluso sean más éticos que los seres humanos?
Durante toda la exposición no han parado de salir preguntas que en algún momento tendremos que pararnos a analizar para que no experimentemos el síndrome de la rana hervida, en la que la situación sucede tan despacio que la víctima no tiene tiempo de reaccionar, no se da cuenta de que está con el agua al cuello y se está quemando, así hasta que se acostumbra y se queda sin energía para dar el salto y salvarse.
Ojalá no nos permitamos como especie llegar a este punto en el que la IA nos deslumbre sin más y nos cueza a fuego lento sin haber tenido antes el espíritu crítico, la lealtad hacia la vida y honestidad suficientes para valorarla en su justa medida.