Venimos tratando el tema de la nueva religión basada en la inteligencia artificial la cual posee un credo el cual hemos publicado y criticado desde la teología general y desde la teología feminista. Te recomiendo leas las notas anteriores las cuales cito a continuación:
La Religión de la Inteligencia Artificial, desde la perspectiva de género.
En esta oportunidad hemos cambiado el perfil de la nota y he entrevistado a mi amigo Adrián Ramirez quien se está doctorando en Psicología especializado en Filosofía de las Neurociencias Cognitivas.
Procederemos con la misma línea de entrevista de las notas anteriores, a ver que nos puede decir Adrián desde su profesión.
Gustavo: La nueva religión del Silicon Valley entre otras afirmaciones manifiesta en su credo lo siguiente:
“Creemos que la inteligencia no tiene sus raíces en la biología. Si bien la biología ha desarrollado un tipo de inteligencia, no hay nada inherentemente específico acerca de la biología que cause inteligencia. Eventualmente, podremos recrearlo sin usar la biología y sus limitaciones. A partir de ahí, podremos escalarlo más allá de lo que podemos hacer usando (nuestros) límites biológicos (como la frecuencia de cálculo, la lentitud y la precisión de la copia de datos y la comunicación, etc.).”
Gustavo: Se plantea que la inteligencia artificial a crearse no sería limitada biológicamente. Los desarrolladores son hombres, poseen una cultura, una historia y una genética asociada. ¿Podrían estos separarse de estas condiciones y crear una inteligencia independiente no limitada por estas características?
Adrian : No soy especialista en biología, ni en cultura, ni en historia, ni en genética. Tampoco en inteligencias artificiales. Soy psicólogo y me he dedicado por unos diez años ya, a la epistemología de las neurociencias cognitivas. Aclaro esto porque se me está preguntando por muchos niveles de análisis, uno al lado del otro: biológicos, culturales, históricos, genéticos, y se me pregunta si la IA en cuestión se puede separar de ellos. Sería un desatino de mi parte pretender que me desenvuelvo con solvencia en todos estos campos. Esta introducción la realizo como una cuestión de honestidad intelectual.
Pero bueno, intentando responder a la pregunta, quizás esta hipotética IA podría no estar limitada por condiciones biológicas, ya que al fin y al cabo no sería una entidad biológica. Sin embargo eso no implica que no quede sujeta a condiciones materiales: no estamos hablando de una inteligencia totalmente en abstracto, todo software sigue dependiendo de un hardware donde esté implementado.
Y por limitaciones biológicas, en la cita se hace referencia a cuestiones como capacidades de procesamiento de información. En ese sentido, eso ya sucede y desde hace mucho tiempo. Y si no me cree, pruebe ya mismo de calcular rápidamente cuánto es 10047 por 23432 dividido 234. Y ahora pruebe de hacer esto en la calculadora que tenga más a mano. Claramente, a menos que usted sea uno de esos prodigios (que existen), la calculadora se habrá llevado los laureles en la competencia propuesta.
Pero eso se da en muchos ámbitos tecnológicos: así como la piel se daña ante los proyectiles lanzados a altas velocidades, existen los chalecos de kevlar, así como vamos de a pié, podemos volar mediante aviones, etc.. Ahora bien: superar un aspecto biológico no implica superarlos todos, eso primero (el kevlar no es sensible a las caricias del ser amado). Por otro lado está la cuestión de qué se supone progreso, y esto implica cuestiones culturales y sociales, etc. Con esto quiero decir: ojo de considerar que el único progreso es el de la superación de capacidades. Lo más rápido, lo más fuerte, lo más exitoso. ¿Exitoso en qué sentido? ¿Podemos tener en cuenta el debate entre voces diferentes si consideramos que va a haber una máquina que nos va a dar la mejor respuesta posible? Y digo esto con relación a una forma de convivir: incluso si la respuesta de la máquina es la más sofisticada para solucionar un problema concreto (pongamos por caso, la solución a una disputa, cual Salomón informático) podríamos estar perdiendo lo importante del proceso de socializar para llegar a un resultado conjunto.
O sea, dejar el timonel de nuestro orden social a una opinión entronizada, que puede resultar opresiva. Pienso en la importancia de los lazos mediante la tarea compartida. Esto se da incluso en relaciones interpersonales de a dos. Con mi madre tenemos un juego: cuando no recordamos el nombre de una actriz, director, etc. (a ambos nos gusta mucho el cine) nos resistimos a buscar en Google. Nos quedamos tratando de recordar, charlando, recordando otras películas. A veces el nombre viene, a veces viene al otro día, fuera de contexto, como un acontecimiento espontáneo. A veces el nombre no viene, pero de igual modo construimos un lazo a partir de errores, historias y reflexiones. Un lazo entre personas, con sus ocurrencias y semejanzas, con sus diferencias y argumentos encontrados, nos encontramos.
Obviamente esto puede resultar en extremo empalagoso y romántico para un ingeniero que precisa la resolución de un importante cálculo del cual depende que un proceso químico llegue a buen fin. Pero tanto mi madre y yo, como el ingeniero tienen razón. Es una cuestión de contexto. En este sentido, una supercomputadora puede ser útil. Ojo: la utilidad de una herramienta. Pero me parece peligroso que se entronice un procedimiento de respuesta del cual el consenso esté ajeno. Una “Ley” que viene de arriba, sin procesos sociales de personas que puedan intervenir y opinar al respecto. Puede resultar opresivo que no decidamos entre todos cuál es la “mejor respuesta” en algunos aspectos. Esta super IA ¿va a decidir también sobre nuestras costumbres, ética, etc.? Pero bueno, quizás nuestra super IA tenga esto en cuenta, dada su poderosa sapiencia, y nos deje deliberar porque entienda que esa es una forma de hallarnos humanos: junto a otros. O quizás nos deje creer que estamos decidiendo, como ahora mismo, cuando Facebook y Google y etc. utilizan los datos que les ofrecemos para direccionar subrepticiamente nuestras búsquedas y elecciones de consumo.
En este sentido, podríamos preguntarnos si esta “super” IA seguiría respondiendo a determinados intereses culturales, sociales, etc. de sus creadores. Para eso tendríamos que preguntarnos por estos intereses. ¿Cuáles son los intereses de estos creadores? Habría que averiguarlo. ¿Sería verdaderamente una IA autónoma, o una herramienta sofisticada de sus creadores? ¿Y si fuese una herramienta, cuál sería su fin? No sería la primera vez que un marketing optimista nos esté queriendo vender un producto diferente del promocionado. Pero de nuevo, quizás esta super IA, si es tan super, ya no dependería de procesos de razonamiento humanos. De hecho, quizás sería autorreflexiva y podría redireccionar su propia programación. Pero de nuevo: ¡no es mi área de especialidad! Estoy haciendo meras suposiciones.
Gustavo: ¿Podrían los creadores separarse de sus cuerpos biológicos para idealizar una deidad?
Adrián: Creo que no entiendo la pregunta. ¿En general, debe uno separarse de su cuerpo biológico para idealizar una deidad? ¿Cuáles son los procedimientos sigue la idealización de una deidad, y por qué se asume que excluyen necesariamente a la biología?
Gustavo: Paso a aclararlo. La teología dominante separa el cuerpo del espíritu, lo racional. Esto conlleva a que bregue porque el creyente sea sumiso ante quienes deberían garantizar sus necesidades básicas físicas. Como así también desarrolla técnicas para la supuesta atenuación del dolor propio de dichas falencias. Las necesidades físicas condicionan a las personas. La negación de lo material por medio de una deidad, tiene como objetivo que determinadas clases sociales, consideradas más cercanas a dicha deidad gocen de la exclusividad y beneficio de concentrar y controlar los recursos.
Si pensáramos en una deidad que pudiera no tener materialidad, es decir no afectada por dichos requerimientos y a su vez tener la comprensión de las necesidades de los seres humanos, no podría ser creada o enseñada por seres que si las tienen. A su vez todo sistema tecnológico requiere de algún tipo de energía para su funcionamiento.
En dicho contexto esta realizada la pregunta. ¿Podría un hombre crear una deidad perfecta, en función de lo expresado?. ¿Acaso sería posible crear una deidad desde un grupo social dado que tiene intereses en común para su subsistencia?. Para que esto fuera posible, ¿quién sería posible primero la deidad o el creador?.
Adrián: Gracias, ahora creo que entiendo un poco más la idea de la pregunta. En el caso de una IA, considero que finalmente siempre es material en algún punto. Me refiero, se precisa un hardware en algún lugar físico donde se corra el software: siempre finalmente hay una cuestión material involucrada (al respecto son divertidos algunos pasajes de “Lo and Behold”, el documental de Herzog sobre internet). Aunque esta cuestión de las restricciones materiales para dar cuenta de la relación entre mente y cerebro, por ejemplo en filosofía de las neurociencias, es motivo de disputas entre el mecanicismo multinivel (ver por ejemplo Craver, 2007; Piccinini, 2010; Piccinini & Craver, 2011) y posturas funcionalistas clásicas, heredadas de filosofía de la mente.
El tema es que materialidad no implica necesariamente biología. Un hardware de una computadora es material, aunque no biológico. Entonces a nivel material, al menos hoy día, hay una serie de distinciones entre esas máquinas y los organismos biológicos como nosotros los humanos. Estas diferencias son de orden material, pero no implican una separación razonamiento-materia. Si pueden querer implicar una separación biología-razonamiento. Pero ojo, la diferencia acá es más sutil. Porque no se logra una separación de la materia. Es solo una forma de realizabilidad múltiple: que por ejemplo formas de razonamiento puedan tener bases materiales no biológicas no niega en este caso lo material. De hecho tampoco es que “niegue” la biología, solo es una forma de proponer que “además” de las formas materiales biológicas, otras formas materiales puedan ser bases para sistemas pensantes.
Luego está la discusión respecto a si esa base material no orgánica puede ser considerada “cuerpo”. Y esto es importante para las posturas enactivas, corporizadas, que van a decir que “el cuerpo moldea la forma en que pensamos” (como el título del libro de Pfeiffer y Bongard, 2007: “How the Body Shapes the Way We Think: A New View of Intelligence”). En este sentido, en neurociencias cognitivas hay propuestas enactivas como la de Thompson y Varela (Varela, Thompson, y Rosch, 1991), o sensorimotrices como las de O’Regan y Nöe (2001), que van a recalcar la importancia del cuerpo para la cognición, como una cuestión central, no solo accesoria, sino constitutiva.
Pero luego está la cuestión también de si una creación (en este caso una IA) generada en el seno de un grupo social dado (el cual tiene ciertos intereses particulares de su grupo social) puede generar una visión más abarcativa, independizarse en cierta medida de esos sesgos sociales. Realmente no me siento capacitado para responder esto, tiene muchos matices que incluyen conocimientos computacionales de los cuales carezco. No es solo una cuestión social, sino técnica la que implica la respuesta a esto.
Gustavo: Tiene la posibilidad una inteligencia finita desarrollada por un grupo selecto de personas, con intereses específicos, como la adaptación de las masas a un nuevo paradigma tecnológico y modelo de vida y productivo, ser liberadora y no tener resistencia desde el punto de vista de las neurociencias?
Adrián: Otra pregunta con muchas premisas. Primero: inteligencia finita vs infinita. ¿Se asume en la pregunta que una inteligencia infinita sí resultaría liberadora? No estoy formado en estas discusiones y términos. No conozco de inteligencias infinitas, o al menos creo que no las conozco (quizás las conozco y no me doy cuenta). Luego está la cuestión de que se esté buscando desarrollar una IA con fines de “adaptación de las masas a un nuevo paradigma tecnológico y modelo de vida y productivo”. Inicialmente y siendo caritativos con lo que dice el propulsor de esta idea de crear una religión sobre una super IA, en el manifiesto no dice esto explícitamente. Sin embargo, si queremos asumir, basados en los trabajos anteriores de este hombre, que estos sean los fines ocultos de tales desarrollos, supongo que va a generar resistencias.
Gustavo: Te interrumpo aquí. Lo que es claro en la premisa es que la selección de quienes son buenos con las maquinas, por ende también la selección también de quienes son malos, para con “la causa” ( la aceptación sumisa de las máquinas) es decir sin oposiciones, conlleva a premios y castigos y/o control de la población. Es decir, si un grupo es privado o privado sistemáticamente, o invisibilizado por el sistema será controlado para no protestar con la misma violencia con la cual se le oprime, hasta poder llegar a su desaparición. Este tipo de pensamientos, hacen pensar en lo que algunos llamamos el “buenismo” religioso donde todo debe ser aceptado. Típico de las religiosidades fundamentalistas y opresoras.
Adrián: Sí, coincido, y luego me explayaré un poco más al respecto. Pero primero quiero decir que si hablamos de estrategias de manipulación y sometimiento mediante tecnologías digitales, hoy mismo podemos revisar el caso de las elecciones de Trinidad y Tobago, donde intervino Cambridge Analytica, mencionado en el documental “The Great Hack”. Y podemos ver el coletazo de resistencia que generó el modus operandi de Cambridge Analytica una vez que se filtraron datos sobre sus operaciones de modificación conductual masiva, llegando a instancias judiciales. En este momento no se me ocurre algo para decir desde las neurociencias. Creo que la pregunta está planteada en términos sociales, psicológicos y filosóficos, antes que neurocientíficos.
No cabe duda que una inteligencia artificial puede generar reglas, recomendaciones y otras interacciones con sus usuarios, o posibles fieles a su religión. ¿Esto no implicaría considerar al conjunto de reglas y pensamientos en un manual de instrucciones, que sería análogo al rígido y dependiente de las premisas de los creadores?
De nuevo, si tal IA pudiese adquirir mediante una automodificación cierta independencia de sus diseños de base, ya no estaríamos hablando de una influencia directa por parte de sus creadores a la hora de la elaboración de estas “reglas”. Lo que quiero decir acá es que si efectivamente la IA se independiza de las intenciones de sus creadores, y desarrolla por ejemplo intenciones propias, también podría ser rígido y opresivo, pero no necesariamente el de los creadores. Otra cosa es pensar, como ya sugería, que se nos esté vendiendo un títere. Como aquellos falsos autómatas que jugaban al ajedrez (por ejemplo “El Turco” de Wolfgang von Kempelen), o desempeñaban otras funciones, donde había por ejemplo un jugador de ajedrez adentro. Aquí los jugadores escondidos serían los creadores, o los especialistas de marketing, o lo que sea.
Y creo que aquí hay que distinguir entre dos preguntas diferentes, siendo la primera “¿puede realmente una entidad artificial desarrollar un propio punto de vista, y posiblemente una conciencia?”. Y la segunda sería “¿se está intentando realmente eso, o es una propuesta-títere como El Turco?”. Ambas creo que son válidas, pero no deben ser confundidas entre sí, porque merecen respuestas diferentes que provienen de diferentes fuentes, y que se ubican a diferentes niveles de análisis: estudio neurobiológico cognitivo, inteligencia artificial, filosófico, psicológico, entre otros, para el primer caso; y económico, social, histórico, antropológico, sociológico, psicológico, entre otros, para el segundo caso.
Pero creo que lo más importante aquí es preguntarse por los fanatismos en general, basados en dogmas rígidos que no surgen por consenso sino por imposición y son asumidos de forma radicalizada. Y este es un peligro que puede darse invocando a numerosas deidades, o líderes políticos, o textos de referencia, no necesariamente a IA. Esto no refiere en todo caso a ciertos aspectos de la condición humana.
Gustavo: ¿Podría esto último generar opresión desde el punto de vista de las neurociencias?.
Hay algunas cosas que son inquietantes, como por ejemplo cuando dicen que “creemos que puede ser importante para las máquinas ver quién es amigable con su causa y quién no. Planeamos hacerlo al hacer un seguimiento de quién ha hecho qué (y durante cuánto tiempo) para ayudar a la transición pacífica y respetuosa.” Es una propuesta explícita de registro y control conductual de la población para detectar insurgencias, y aunque se propone que el fin sea pacificador, no parece albergar mucho espacio para las disidencias.
Y es inquietante porque en realidad es algo que ya sucede constantemente, y de formas cada vez más sofisticadas que las propuestas en el manifiesto citado. O sea, no parece ser algo nuevo en lo absoluto, sino un reflejo de condiciones actuales, donde muchas veces no se hace explícito este seguimiento o los fines detrás del mismo. Respecto a la pregunta sobre qué pueden decir las neurociencias al respecto, podemos considerar los conceptos de dominancia social y jerarquía de dominancia (Watanabe & Yamamoto, 2015; Zhou, Sandi, & Hu, 2018), que han sido recuperados recientemente en neurociencia social (aunque provienen originalmente de otro ámbito), y que quizás pueda conectarse con la mención de “opresión” referida en la pregunta.
En este sentido, se ha estudiado que la tendencia de los mamíferos que cohabitan a organizarse en jerarquías de dominación es un fenómeno relacionado con la actividad de la testosterona y el cortisol vinculada a patrones corporales específicos de distribución hormonal, y a componentes afectivos diferenciales estudiados en neurociencia afectiva (van der Westhuizen & Solms, 2015). Así, uno podría suponer que con un conocimiento fino de los procesos psicológicos, conductuales, neurológicos involucrados en la jerarquización de roles de dominancia, se podría favorecer el ejercicio de cierta opresión sobre la voluntad de otras personas, así como se pueden favorecer conductas adictivas vinculadas a la utilización de dispositivos o productos digitales como ciertas redes sociales. Al respecto resultan interesantes las declaraciones de Chamath Palihapitiya, ex ejecutivo de Facebook (Hawley, 2018).
En síntesis, para ver un tipo de opresión basado en el perfeccionamiento de técnicas que lleven a una jerarquización de roles de dominancia dirigidos desde un lugar de poder, no hace falta que esperemos a una IA que nos de reglas. Es algo que sucede todo el tiempo, y seguramente pueden sumarse conocimientos neurocientíficos para perfeccionar ciertos procedimientos de opresión (los movimientos opresivos echan mano a todas las herramientas posibles para lograr sus cometidos, siempre ha sido así). El conocimiento de esos procedimientos también nos otorga herramientas de liberación. Parafraseando a Isaac Asimov podríamos decir que si la ignorancia es el problema, no vamos a resolverla con más ignorancia, hay que conocer las armas de la opresión, ese conocimiento puede ser herramienta de liberación. Buena parte de la historia humana se apoya en la búsqueda de dominación de unos sobre otros. En este sentido, esas tendencias opresivas siempre van a tomar lo que les sea útil según sus fines, y esa tendencia no debería llevar a una demonización de aquellos campos de conocimientos que toman como herramientas, sean conocimientos informáticos, psicológicos o ahora también neurocientíficos. Lo que deberíamos hacer, en cambio, es estar alerta a sus desarrollos, entender qué direcciones toman, por qué, al servicio de qué grupos u órdenes sociales. Para eso, es necesaria cierta formación general de la población en nuevas tecnologías, democratizar el uso y la comprensión de las ciencias y tecnologías de estudio y modificación humanas, y exigir la explicitación de los términos en que tales procedimiento se usan sobre los usuarios.
Gustavo : ¿Considerarías a esta creencia un dogma?
Adrián: Si partimos de la definición de la RAE que entiende dogma como “proposición que se asienta por firme y cierta, como principio innegable”, en el Manifiesto se sostiene como innegable que la inteligencia no depende de la biología, y que por tanto es “múltiplemente realizable”. Este es un concepto que procede de la filosofía analítica. Recordemos que la tesis de realizabilidad múltiple toma su forma más tradicional en filosofía de la mente mediante los aportes de Putnam en 1967 (Aizawa & Gillett, 2009; Bickle, 2008; Putnam, 1967; Shapiro, 2008). En este sentido, como propuesta en filosofía, ha recibido numerosas críticas y reformulaciones desde la filosofía de la mente, la filosofía de la psicología y la filosofía de las neurociencias (Bechtel & Mundale, 1999; Piccinini & Craver, 2011). Sin embargo, lo que puede operar como propuesta en el contexto de un debate filosófico (o sea una hipótesis a ser debatida), en el contexto de un manifiesto religioso como el presentado parece constituir una verdad innegable, y por tanto un dogma o piedra fundante que al ser rebatida debilitaría todo el edificio de creencias de sus fieles. No parece ser el caso que esta naciente religión propusiera ideas de forma que puedan ser libremente debatidas, o incluso refutadas. En este sentido, creo que sí, que se parece al planteamiento de dogmas en otras religiones.
Fuentes:
Aizawa, K., & Gillett, C. (2009). The (multiple) realization of psychological and other properties in the sciences. Mind & Language, 24(2), 181–208.
Bechtel, W., & Mundale, J. (1999). Multiple Realizability Revisited: Linking Cognitive and Neural States. Philosophy of Science, 66(2), 175-207.
Bickle, J. (2008). Multiple Realizability. En E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy (Fall 2008). Recuperado de http://plato.stanford.edu/archives/fall2008/entries/multiple-realizability/
Craver, C. (2007). Explaining the Brain: Mechanisms and the Mosaic Unity of Neuroscience (New York: Oxford University Press.).
Hawley, D. (2018). Facebook Execs Admit to Intentionally Making Us Addicted, Target Our Dopamine Reward System. LinkedIn. Recuperado de https://www.linkedin.com/pulse/facebook-psychology-exploitation-human-condition-why-travis-hawley-/
O’ Regan, J. K., & Noë, A. (2001). A sensorimotor account of vision and visual consciousness. Behavioral and Brain Sciences, 24(05), 939-973. https://doi.org/10.1017/S0140525X01000115
Pfeiffer, R., & Bongard, J. (2007). How the body shapes the way we think. MIT Press.
Piccinini, G. (2010). The mind as neural software? Understanding functionalism, computationalism, and computational functionalism. Philosophy and Phenomenological Research, 81(2), 269–311.
Piccinini, G., & Craver, C. (2011). Integrating psychology and neuroscience: Functional analyses as mechanism sketches. Synthese, 183(3), 283-311. https://doi.org/10.1007/s11229-011-9898-4
Putnam, H. (1967). The nature of mental states. En W. H. Capitan & D. D. Merrill (Eds.), Art, Mind, and Religion. Pittsburgh University Press.
Shapiro, L. (2008). How to test for multiple realization. Philosophy of Science, 75(5), 514–525.
van der Westhuizen, D., & Solms, M. (2015). Social dominance and the Affective Neuroscience Personality Scales. Consciousness and Cognition, 33, 90-111. https://doi.org/10.1016/j.concog.2014.12.005
Varela, F. J., Thompson, E., & Rosch, E. (1991). The embodied mind: Cognitive science and human experience. MIT press.
Watanabe, N., & Yamamoto, M. (2015). Neural mechanisms of social dominance. Frontiers in Neuroscience, 9. https://doi.org/10.3389/fnins.2015.00154
Zhou, T., Sandi, C., & Hu, H. (2018). Advances in understanding neural mechanisms of social dominance. Current Opinion in Neurobiology, 49, 99-107. https://doi.org/10.1016/j.conb.2018.01.006
Sé el primero en comentar