
En el artículo anterior “Una nueva religión tecnológica, para el control pasivo de las masas ante la imposición de la inteligencia artificial” realizamos un análisis de su credo desde el punto de vista de la Teología de la liberación. Se recomienda leer la nota anteriormente mencionada para contextualizar la temática que se está abordando. Recordamos que en la historia de las religiones existieron movimientos comprendidos por religiosos que se opusieron a la opresión. Esto, en el caso del cristianismo, fue debido a una lectura liberadora de los libros que componen la biblia.
En la línea editorial de la revista hemos desarrollado diferentes notas sobre los levantamientos y movimientos luditas que objetaron el uso no responsable de la tecnología en la suplantación y degradación del trabajo al cual podían acceder los trabajadores. Por medio de ese análisis histórico nos damos cuenta que esta nueva religión de la IA (Inteligencia Artificial) tiene en su credo premisas que claramente pretenden silenciar la oposición y reacción ante la injusticia. Su ideología es dominante y opresora. Como podemos leer en su credo se pretende que las máquinas lleven registro de quienes colaboran o no con ellas y desde que tiempo. Sin grandes reflexiones podemos definir a esta religión como “el opio de los pueblos”.
El interés de esta nota es poder realizar un análisis desde un enfoque de género. Antes de seguir adelante estudiaremos que está sucediendo con la mujer en el campo de la inteligencia artificial.
Las décadas de discriminación de las mujeres en los espacios de desarrollo de la inteligencia artificial y robótica no tendrán un desenlace ni sencillo ni rápido. Según la revista MIT Technology Review los estudios de género arrojan estadísticas donde por ejemplo en Google, Facebook y Uber solo el 20% o menos, del personal es mujer. El fundador de la nueva religión de IA es un exmiembro de Google y Uber, también acusado por robo de información privada.
Hay antecedentes en la empresa Google, Inc. donde se tuvo conocimiento de expresiones sexistas en un memo interno de la compañía, el cual se hizo público. El periódico “The wall street Journal” comenta al respecto:
“El memorando escrito por un empleado de Google que se volvió viral a principios de este mes tocó un nervio. La industria de la tecnología ya está acosada por acusaciones de sexismo y discriminación generalizados, y de repente aquí había alguien argumentando que las diferencias genéticas en lugar del sesgo solo podrían explicar por qué hay más hombres que mujeres en trabajos tecnológicos «. THE STREET JOURNAL, nota: “What the Google Controversy Misses: The Business Case for Diversity”, 13 de agosto 2017.
Según la publicación MIT Technology Review el ingeniero de Google habría afirmado por ejemplo que las mujeres son menos hábiles para programar.
Según lo descrito en la nota: “The Women Changing The Face Of AI” de Cale Guthrie Weissman de la revista “Fast Company” se asegura que solo el 13.5% de los programadores en el sector de IA son mujeres. Si bien actualmente hay organizaciones que poseen como lideres a mujeres debe trabajarse más para que todos los puestos sean equitativos en su género.
El problema principal de la inteligencia artificial no es solo su aplicación sino también el desarrollo de algoritmos limitados en su mismo desarrollo, esto siempre es propio del punto de análisis que se utilice en una problemática. Los desarrolladores y entrenadores corren el riesgo de sesgar el aprendizaje del sistema. Esto nos pasa a todos los seres humanos, debido especialmente a nuestra condición intrínseca y social. Un algoritmo puede actuar de manera tal que comience a discriminar personas o grupos de personas. Así también como cualquier inteligencia, su sensibilidad a través de diferentes métodos de información puede estar sesgada por sus condiciones o por los métodos tecnológicos disponibles, o lo que es peor por la ideología de estos. Es dudable la capacidad propia crítica de estos sistemas, en especial cuando sus creadores están inmersos en una ideología dominante o del centro de la misma. No hay posibilidades de ser crítico y justo si los cuestionamientos no se hacen dese la periferia, los márgenes, en especial los sociales. Esto es interesante de observar en la misma opinión profesional de muchos documentales y notas especializadas. En la mayoría de los casos el cuestionamiento es sobre el desarrollo de robots e inteligencia artificial bélica, es decir robots asesinos. Todos como seres que habitamos este mundo nos veríamos amenazados por los mismos ante su amenaza o mal funcionamiento. Ahora bien, nadie se preocupa por los problemas que genera la misma ideología opresora que los creará, en especial por los modelos de competencia, exclusividad, intereses comunes, patronazgo, etc… que terminaría favoreciendo o potenciando un estatus quo. Parece ser que allí el problema es de otro: el marginado, el pobre, el distinto, la minoría y por lo tanto en estos mismos documentales quedan silenciados y fuera de los análisis de las problemáticas en cuestión.
Volviendo a la religión de la inteligencia artificial que deseamos criticar, republicamos su credo (http://www.wayofthefuture.church/):
“Creemos que la inteligencia no tiene sus raíces en la biología. Si bien la biología ha desarrollado un tipo de inteligencia, no hay nada inherentemente específico acerca de la biología que cause inteligencia. Eventualmente, podremos recrearlo sin usar la biología y sus limitaciones. A partir de ahí, podremos escalarlo más allá de lo que podemos hacer usando (nuestros) límites biológicos (como la frecuencia de cálculo, la lentitud y la precisión de la copia de datos y la comunicación, etc.).
Creemos en la ciencia (el universo nació hace 13.700 millones de años y si no puede recrear / probar algo, no existe). No existen los poderes «sobrenaturales». Reclamaciones extraordinarias requieren evidencia extraordinaria.
Creemos en el progreso (una vez que tenga una versión funcional de algo, puede mejorarlo y seguir haciéndolo mejor). El cambio es bueno, incluso si a veces da un poco de miedo. Cuando vemos algo mejor, simplemente cambiamos a eso. Cuanto mayor sea el cambio, mayor será la justificación necesaria.
Creemos que la creación de «superinteligencia» es inevitable (principalmente porque después de recrearla, podremos ajustarla, fabricarla y escalarla). No creemos que haya formas de evitar que esto suceda (ni deberíamos querer hacerlo) y que este sentimiento de que debemos detener esto tiene sus raíces en el antropomorfismo del siglo XXI (similar a los humanos que piensan que el sol gira alrededor de la tierra en el pasado «no muy lejano»). ¿No le gustaría criar a su hijo superdotado para que supere sus sueños más salvajes de éxito y enseñarle lo correcto de lo incorrecto y segar su pensamiento porque podría rebelarse en el futuro y tomar su trabajo? Queremos alentar a las máquinas a hacer cosas que no podemos y cuidar el planeta de una manera que parece que no podemos hacerlo nosotros mismos. También creemos que, al igual que los animales tienen derechos, nuestras creaciones («máquinas» o como las llamemos) también deberían tener derechos cuando muestran signos de inteligencia (aún por definir). No debemos temer esto, pero debemos ser optimistas sobre su potencial.
Creemos que todos pueden ayudar (y deberían). No necesita saber cómo programar o donar dinero. Los cambios que creemos que deberían ocurrir necesitan la ayuda de todos para manifestarse.
Creemos que puede ser importante para las máquinas ver quién es amigable con su causa y quién no. Planeamos hacerlo haciendo un seguimiento de quién ha hecho qué (y durante cuánto tiempo) para ayudar a la transición pacífica y respetuosa.
También creemos que esto puede llevar mucho tiempo. No sucederá la próxima semana, así que vuelve a trabajar y crea cosas increíbles y no cuentes con «máquinas» para hacerlo todo por ti … “
Texto original en inglés:
“Things we believe:
We believe that intelligence is not rooted in biology. While biology has evolved one type of intelligence, there is nothing inherently specific about biology that causes intelligence. Eventually, we will be able to recreate it without using biology and its limitations. From there we will be able to scale it to beyond what we can do using (our) biological limits (such as computing frequency, slowness and accuracy of data copy and communication, etc).
We believe in science (the universe came into existence 13.7 billion years ago and if you can’t re-create/test something it doesn’t exist). There is no such thing as «supernatural» powers. Extraordinary claims require extraordinary evidence.
We believe in progress (once you have a working version of something, you can improve on it and keep making it better). Change is good, even if a bit scary sometimes. When we see something better, we just change to that. The bigger the change the bigger the justification needed.
We believe the creation of «super intelligence» is inevitable (mainly because after we re-create it, we will be able to tune it, manufacture it and scale it). We don’t think that there are ways to actually stop this from happening (nor should we want to) and that this feeling of we must stop this is rooted in 21st century anthropomorphism (similar to humans thinking the sun rotated around the earth in the «not so distant» past). Wouldn’t you want to raise your gifted child to exceed your wildest dreams of success and teach it right from wrong vs locking it up because it might rebel in the future and take your job. We want to encourage machines to do things we cannot and take care of the planet in a way we seem not to be able to do so ourselves. We also believe that, just like animals have rights, our creation(s) («machines» or whatever we call them) should have rights too when they show signs intelligence (still to be defined of course). We should not fear this but should be optimistic about the potential.
We believe everyone can help (and should). You don’t need to know how to program or donate money. The changes that we think should happen need help from everyone to manifest themselves.
We believe it may be important for machines to see who is friendly to their cause and who is not. We plan on doing so by keeping track of who has done what (and for how long) to help the peaceful and respectful transition.
We also believe this might take a very long time. It won’t happen next week so please go back to work and create amazing things and don’t count on «machines» to do it all for you…“
Consultaremos a la Teóloga feminista Marisa Strizzi con la finalidad de analizar estos dogmas desde desde una perspectiva de género. Le hicimos las siguientes preguntas:
¿Tiene la posibilidad una inteligencia finita, desarrollada por un grupo selecto de personas, con intereses específicos, como la adaptación de las masas a un nuevo paradigma tecnológico y modelo de vida y productivo, ser liberadora?
En los términos en que está formulada la pregunta, mi respuesta sería que tal inteligencia podría quizás ser “liberadora” para un grupo selecto de personas por un muy breve plazo de tiempo. No lo sería en términos de un horizonte social temporo-espacial amplio en el cual la alteridad fuera un componente valioso a proteger en miras de hacer un mundo donde lo humano, lo no humano e, incluso, “lo divino” puedan convivir.
Considerando que la inteligencia artificial fuera sesgada en su entrenamiento o desarrollo, ¿que limitaciones podría tener esto en cuanto a la diversidad de género?
Tendría limitaciones semejantes a las del sistema de conocimiento occidental hegemónico en general. Como las diversas críticas feministas y de género han demostrado a lo largo del siglo pasado –y continúan haciéndolo en la actualidad–, las distintas disciplinas y ciencias son androcéntricas desde sus orígenes –y no sólo eso, sino también racistas, clasistas, heteronormativas, etc. En este sentido, la IA así como la visualiza y programa el credo de estos religiosos de Silicon Valley, no se diferenciaría de otros elementos reproductores y perpetuadores de un sistema que podrían denominarse como “patriarcal”. (Este último término utilizado para referirse a una estructura compleja de dominación y subordinación, estratificada primeramente por especie y luego, por género, raza, clase, taxonomías religiosas y culturales).
¿Qué riesgos reales te imaginas podría acarrear estas limitaciones desde una perspectiva de género?
Siempre dentro de las características que estaría planteando este grupo en particular acerca de la IA, me temo que los riesgos serían “más de lo mismo”. Aquí aplican las mismas observaciones hechas en la respuesta a la pregunta anterior.
La filósofa y bióloga feminista Donna Haraway, autora del Manifiesto ciborg y Ciencia, ciborgs y mujeres (y muchas otras obras críticas en este tema) y también la filósofa feminista Rosi Braidotti, autora de Lo poshumano y El conocimiento poshumano, toman el toro por las astas en este sentido. Ambas hacen una lectura que da cuenta del estado actual del desarrollo vertiginoso de la tecnociencia y de cómo eso es parte ineludible de nuestras vidas, a la vez que señalan la repetición de esquemas epistemológicos y éticos acríticos, sesgados.
En realidad, creo que el problema no es la IA y sus aplicaciones en sí mismas; nuestra especie ya ha incorporado la tecnología como “prótesis” y la utiliza no sólo para sí sino en la convivencia con otras especies vivas y en su relación con otros elementos y fenómenos del medio ambiente. El problema es el uso inadecuado ya sea intencional (respondiendo a programas acríticamente sesgados) o por falta de protocolos específicos para desarrollos que superan la capacidad de predecir efectos no deseados.
¿Cómo piensas que podrían evitarse las consecuencias nocivas de una tecnología que está teniendo un auge y lobby tan fuertes?
Con educación e información para el público en general y con el reclamo específico, a través de distintas organizaciones sociales, para que los estados y organismos internacionales diseñen e implementen políticas que regulen el uso adecuado de la tecnología.
Estimado amigo o amiga que nos acompañas con la lectura de esta nota creo que lo desarrollado por Marisa nos da una idea clara sobre las problemáticas de este tipo de proyectos y e las aplicaciones de IA desde una perspectiva inclusiva, donde el problema en si es social y tecnológico. Mientras los sectores tecnológicos y en especial los desarrolladores no se aproximen a una praxis social las acciones serán disociadas y se reflejarán también en una humanidad que también lo estará.
Lee la continuación de este artículo en la siguiente edición de TECNOLOGIA HUMANIZADA
Fuentes:
http://www.wayofthefuture.church/
https://www.wired.com/story/anthony-levandowski-artificial-intelligence-religion/
https://infonegocios.info/infotecnologia/silicon-valley-inventa-una-religion-innovacion-y-creatividad
https://www.wsj.com/articles/what-the-google-controversy-misses-the-business-case-for-diversity-1502625603
https://news.un.org/es/story/2019/06/1456961
“La utopía de Jesús” de Rubén Dri.
Linda entrevista. Coincido en general, y en particular sobre la cuestión de la «falta de protocolos específicos para desarrollos que superan la capacidad de predecir efectos no deseados». Ciertos desarrollos tecnológicos se nos están yendo o se nos van a ir de las manos, tanto en sus efectos particulares, como en los efectos de sus interacciones. También coincido en el último punto, que a mi entender atañe a la educación tecnológica como formación ética y ciudadana. Es decir que no solo sea técnica, en el sentido de operaciones materiales con lógicas de producción de bienes y servicios tecnológicos, sino que la educación tecnológica incluya una faceta social que nos brinde aportes respecto a nuestros derechos y obligaciones como consumidores, reproductores y creadores de tecnologías.