“Ser humano quizás quiere decir no continuar siéndolo”. Entrevista a Stelarc
Stelarc es uno de los artistas más singulares de nuestro tiempo. Su trabajo se centra en el campo del bioarte y la performance, explorando la capacidad del cuerpo humano en relación con la tecnología. Y es que el artista ha utilizado su propio cuerpo como medio de investigación, sometiéndolo a situaciones extremas de privación y multiplicación sensorial o inserciones electrónicas a la piel. En esta nueva entrevista hablamos con él sobro bioarte, tecnología y su larga trayectoria.
¿Puedes explicarnos brevemente qué es el bioarte y qué relación tiene con tu trabajo y tu carrera?
Al principio yo entendía lo bioarte como el uso de células vivas en lugar de material inerte para crear obras de arte. Los artistas trabajaban en laboratorios, seguían protocolos y combinaban inquietudes estéticas y conceptuales con metodología científica. Pero tanto la definición como el enfoque del bioarte se han diversificado mucho: los artistas ahora ya no llevan batas blancas, han salido de los laboratorios para adentrarse en el entorno natural y han empezado a incluir elementos y sustancias vivas como los hongos y las mucosidades, y a usar la incubación natural en vez de aparatos de laboratorio. Mi interés inicial por el bioarte nació cuando empecé a cultivar células musculares de rata, mioblasts, durante una estancia en la Universidad Carnegie Mellon de Pittsburgh en 1996. En aquella época yo no tenía ningún tipo de interés artístico para exponer una placa de petri sobre un pedestal, pero sí que de allí nació la idea de hacer una prótesis blanda, y crear una oreja extra me pareció un reto bastante viable. Primero se hizo un modelo en 3D que se implantaría como una tercera oreja en un lado de mi cabeza. Pero tardé diez años a encontrar tres cirujanos plásticos y conseguir financiación para implantarme quirúrgicamente la Ear on Arm (Oreja en el brazo), con crecimiento tisular y vascularización, para que la oreja fuera una parte viva integrada en mi cuerpo. Antes, en colaboración con SymbioticA, se había creado la ¼ Scale Ear (Oreja a escala ¼), 2003: se escaneó mi oreja, se redujo la medida y, a partir de estos datos, se imprimió un esqueleto biodegradable en 3D que se sembró con células humanas. El resultado fue una masa de tejido vivo en forma de una pequeña oreja. El año 2006, dentro del proyecto Partial Head (Cabeza parcial), se escaneó la cara del artista y el cráneo de un homínido y se hizo un trasplante digital, que dio como resultado un rostro posthomínido y a la vez prehumano. Se sembraron células vivas sobre el esqueleto imprimido en 3D para intentar hacer crecer una capa de piel viva, pero en la cabeza de pocos días se produjo una contaminación dentro de la incubadora y se tuvo que fijar con formaldehído para poder conservarlo durante el resto de la exposición en el Museo de Arte Moderno Heide de Melbourne.
En la década de 1990, fuiste de los primeros en sugerir que el cuerpo humano se acabaría fusionando con la tecnología de nuestro día a día. Al cabo de dos décadas, parece que el tiempo te ha dado la razón: todos llevamos permanentemente encima ordenadores (desde teléfonos hasta relojes inteligentes) y recientemente Apple ha presentado un nuevo dispositivo: un visor de realidad aumentada que permite difuminar los límites entre la red de información y nuestros sentidos. Con la distancia que da el tiempo, ¿puedes decir en que se asemeja el mundo actual al que te imaginabas en tus proyectos de hace 20 años? ¿En qué te ha sorprendido la evolución de los acontecimientos y en que te ha decepcionado?
Mi mentalidad no era la de alguien que especulaba sobre un futuro imaginado. Más bien miraba de usar las técnicas y tecnologías más avanzadas para explorar y descubrir qué era un cuerpo y como se podía salir del entorno cada vez más complejo en que habitaba. Ah, y esto mucho antes de la década de 1990. A finales de la década de 1960, creé unos cascos que dividían la visión binocular y también un compartimento sensorial inmersivo y giratorio en el cual se introducía la parte superior del cuerpo. Entre 1973 y 1975 grabé 3 videos del interior de mi cuerpo mediante endoscopia y en 1976 empecé mi proyecto Third Hand (Tercera mano), que acabé en 1980. En aquella época, la Tercera Mano era tan sofisticada que recibí la invitación del Laboratorio de Propulsión de Pasadena y del Centro Espacial Johnson de Houston para hacer una demostración de la mano accionada por EMG ante el Grupo de Actividad Extravehicular. A principios de la década de 1990, yo hacía performances con robots industriales y también con mi cuerpo virtual. A partir de 1995, llevé a cabo las performances interactivas en línea Fractal Flesh (Carne fractal), Ping Body (Cuerpo PING) Parasite (Parásito), en las cuales personas de otros lugares podían acceder al cuerpo y accionarlo a distancia, de forma que el cuerpo se convertía en un vulgar barómetro de la actividad en Internet y actuaba de manera involuntaria a instancia de los motores de búsqueda de imágenes y sonidos. Lo que ha ocurrido desde entonces es que hemos pasado de la conectividad con hilo a la conectividad inalámbrica. De las mega-máquinas a los sensores y robots de escala micrométrica y manométrica. De los robots industriales a los robots humanoides. Sí, las pantallas de visualización frontal (HUD) portables todavía son bastante voluminosas y pelmazas, pero la investigación en el ámbito de la integración de micro-LED en lentillas promete mostrar información superpuesta dentro de nuestro campo de visión sin los problemas sociales que comportan las gafas portables. El que resulta más prometedor de los nuevos visores de realidad aumentada y realidad ampliada es el control más atractivo e intuitivo que permiten mediante gestos y movimientos oculares, de forma que el cambio del modo de funcionamiento real al virtual, y viceversa, será cada vez más fluido.
¿Crees que el mundo del diseño y la tecnología puede redefinir la relación que tenemos con nuestro cuerpo y nuestros sentidos?
Bien, esto ya está pasando. Tanto en un sentido existencial como ontológico. El cuerpo se ha convertido en una quimera contemporánea de carne, metal y código, que actúa más allá de los límites de su piel y del espacio local que habita. Nuestras máquinas amplifican nuestra potencia corporal e impulsan el cuerpo a grandes velocidades. Nuestros sensores e instrumentos amplían y mejoran la percepción sensorial del cuerpo. Esto genera paradigmas inesperados del mundo en que vivimos. Ahora navegamos desde el tiempo profundo, pasando por las nano-escalas físicas, hasta los no-lugares virtuales. El cuerpo habita ahora reinos abstractos de aquello altamente hipotético y de la subjetividad que fluye. Pero el mundo digital no es solo el reino de aquello virtual. Los muertos, los sin cerebro, los que todavía no han nacido, los criogenizados, los protésicamente aumentados, la vida sintética y la vida artificial comparten ahora una existencia material y próxima. Ser humano quizás quiere decir no continuar siéndolo. Un avance tecnológico que siempre me gusta recordar es el corazón de doble turbina. El año 2011 se implantó al tórax de un paciente terminal, que vivió suficiente tiempo para poder probar a fondo este corazón artificial, más pequeño y robusto. Bombea la sangre de manera continua sin pulsaciones, así que puede ser que en un futuro próximo podamos apoyar la cabeza sobre el pecho de alguien y lo notamos caliente al tacto, suspire, hable, esté vivo, pero no tenga latido. El año 2017, Tina Gibson dio a luz Emma Wren a partir de un embrión congelado de 25 años. Su madre tenía 25 años, la misma edad que el embrión. En el futuro, se podrán conservar embriones congelados de 50 años que sean viables. Podréis nacer junto al lecho de muerte de un hermano o hermana vuestra. O podréis nacer generaciones después de la muerte de vuestros padres biológicos. Lo que esto quiere decir es que estamos desconectando nuestros procesos reproductivos de nuestra esperanza de vida. Y si somos capaces de diseñar un útero artificial y de dar a luz un bebé sano, entonces la vida ya no empezaría con un nacimiento biológico. Y si podemos sustituir partes defectuosas del cuerpo por partes creadas a partir de células madre, imprimidas en 3D o artificiales, ya no hará falta morirnos de una muerte biológica. Y, entonces, ¿cómo definimos una existencia humana que no empieza con el nacimiento ni acaba con la muerte? De hecho, ya no moriremos de una muerte biológica, sino que moriremos cuando se desconecten nuestros sistemas de apoyo vital. Dicho esto, hay que comprender que estas ideas son a la vez contingentes y discutibles. El futuro no consiste en certezas, sino en probabilidades. No es lo que será, sino lo que podría ser. El futuro no es futuro si no es inesperado.
¿Cómo crees que la actual explosión de pensamiento en torno a la inteligencia artificial cambia nuestra relación con nuestro cuerpo y nuestro sentido?
En una época en la cual el cuerpo individual puede ver amenazada su existencia, al ser infectado mortalmente por virus biológicos, lo que se hace evidente ahora es que la especie humana se enfrenta al riesgo ontológico más omnipresente e invasivo de infección por parte de sus entidades digitales y algoritmos virales. Sí, los sistemas impulsados por la IA facilitarán y agilizarán nuestras operaciones e interacciones, pero los problemas empezarán a surgir cuando los sistemas inteligentes se vuelvan más inteligentes de lo que son los humanos que los han puesto en marcha. Los accesorios e implantes protésicos amplificados por la IA permitirán al mismo tiempo interfaces más íntimas e intuitivas, pero también provocarán una dependencia que podría llegar a ser un problema. Sin querer sonar distópico, las implicaciones de la IA irán más allá de su relación con el cuerpo humano. El impacto de la IA, más que ser una ayuda para el ser humano, permitirá que los sistemas de máquinas se vuelvan cada vez más inteligentes y autónomos. A medida que las máquinas se vayan conectando en red, se podrán comunicar y podrán colaborar cada vez más. Lo que será interesante de ver no es el desarrollo de la inteligencia artificial general, sino cuando una inteligencia artificial se convierta en una inteligencia extraterrestre. De hecho, podría bien ser que las primeras señales de vida extraterrestre surgieran de este planeta.
¿Cuál es la idea principal que te interesa explorar ahora a través de tu obra?
Bien, no ha habido una progresión lineal de la realidad física, a la robótica, y después a la virtual. Mis proyectos y performances oscilan entre estos diferentes modos de operación. De hecho, ahora se espera que todos actuemos en realidades mixtas. Que nos movamos entre sistemas reales y virtuales como si deslizáramos. Que pasemos del funcionamiento fuera de línea al funcionamiento en línea. Movatar (2000) es un sistema de captura de movimiento inverso. En vez de un cuerpo que anima una entidad informática, permite a un avatar actuar en el mundo real con parte de un cuerpo físico. La interfaz del exoesqueleto de movimiento de la parte superior del torso solo tiene tres grados de libertad para cada brazo, pero esto permite 64 combinaciones posibles. El cuerpo no se divide de izquierda a derecha, sino entre torso y piernas. Mientras que los brazos son accionados por el código del avatar, las piernas son libres de moverse, girar y presionar los sensores del suelo que, a su vez, pueden modular el comportamiento del avatar. Por ejemplo, se pueden alterar los cambios de ritmo, la mutación y la complejidad de las secuencias posturales. La prótesis de movimiento se puede ver como si fueran los músculos del avatar al mundo real. Se trata de una interfaz real-virtual en la cual se genera un diálogo entre un cuerpo biológico y un constructo de datos. El cuerpo es a la vez un cuerpo poseído y un cuerpo que actúa. En la performance Re-Wired/Re-Mixed de 2017, durante cinco días y seis horas al día de manera ininterrumpida, solo podía ver con los ojos de alguien de Londres y solo podía sentir con las orejas de alguien de Nueva York, mientras que cualquier persona, en cualquier lugar y en cualquier momento, podía acceder a mi brazo derecho a través del exoesqueleto y animar sus movimientos a distancia en el Instituto de Arte Contemporáneo de Perth. Repartir acciones y compartir sentidos. El cuerpo, en realidad, se encontraba en tres lugares a la vez: dos lugares virtuales, Londres y Nueva York, y un lugar físico, Perth. Al principio quería retransmitirlo con una cámara de 360 grados, pero en aquel momento no fue posible. Y sería magnífico llevar a cabo este proyecto no solo retransmitiéndolo todo desde cámaras y micrófonos, sino estableciendo conexiones por cable directamente con los ojos y las orejas de una persona remota. Y, por supuesto, no habría que usar un exoesqueleto para accionar mi brazo. Esto podría conseguirse mediante estimulación muscular a partir de las indicaciones del cerebro de alguien. Sería interesante experimentar subjetivamente con un ojo conectado a distancia, una oreja conectada a distancia y un cerebro conectado a distancia en un brazo y un cuerpo que se encuentran en otro lugar...
Barcelona se está posicionando como un centro de cultura digital. Después de visitarla para participar en Digital Impact, ¿tienes en mente hacer algún proyecto en la ciudad en un futuro?
La NewArt Foundation finanza un proyecto que se completará en 2024 y que incluye una serie de performances por Europa. Se trata de un exoesqueleto móvil y amplificado omnidireccionalmente con un brazo robótico con el cual el artista podrá actuar. Pero también será una instalación interactiva autónoma en la cual personas que se encuentren en otros lugares podrán coreografiar los movimientos del robot y las funciones de su brazo robótico a través de una interfaz gráfica. Coreografiar estos movimientos y funciones también permitirá componer los sonidos del robot.