¿Cuál es el concepto de realidad virtual que desarrollas en Mixed Reality Lab?
Conocemos el mundo real, nacimos en él y vivimos en él, y también conocemos el mundo virtual, lo vemos en los juegos de ordenador y en gráficos 3D. Nos interesa la fusión de ambos mundos. Manejamos también el concepto de “realidad aumentada”: introducimos el mundo real en el mundo virtual en tiempo real. Por ejemplo, con una captura en 3D e tiempo real puedes capturarte a ti mismo y ver tu avatar virtual en el campo virtual. Después de lograr eso, buscamos formas de implicar a nuestros cinco sentidos. Por poner un ejemplo, podemos ver una flor virtual en gráficos en 3D, casi de manera perfecta, pero no podemos tocarla, olerla ni degustarla. Estamos trabajando para que en el futuro tengamos una “mixed reality”en la que los cinco sentidos humanos se fundan con el mundo virtual.
Da la sensación de que estamos tan sólo al comienzo de una era completamente nueva en lo que respecta a la relación del hombre y las máquinas y a la conectividad entre humanos.
Creo que ya se está dando una fusión de esos dos mundos, el virtual y el físico, pero lo que vemos es que nuestro cerebro, nuestro intelecto, se está viendo aumentado, así que podemos pensar que en el futuro veremos cerebros humanos aumentados, inteligencia humana aumentada. Por ejemplo, nos apoyamos mucho en internet. Ya no necesitamos memorizar tantas cosas, podemos simplemente hacer una búsqueda en Google. Pero podemos imaginar que pronto la conexión será mucho más directa. Hoy ya podemos conectar las neuronas de los ratones con fibra óptica, es algo que ya está ocurriendo en la ciencia del presente. Esto significa que en un futuro cercano podremos conectar directamente el mundo electrónico, digital, con nuestras neuronas y conseguiremos una fusión aún más fuerte del cerebro humano con el mundo digital. Seremos capaces de tener el conocimiento de internet conectado directamente a nuestro cerebro. Hay muchas personas que ya llevan implantes, como marcapasos, miembros artificiales, incluso reemplazan sus caderas por otras mecánicas, y pronto esto va a ser mucho más habitual y partes de nuestros cuerpos se van a ver reemplazadas o mejoradas con implantes robóticos. De este modo podemos llegar a un punto en el que si una gran parte de nuestros cuerpos ha sido reemplazada por implantes mecánicos, robóticos o electrónicos y si nuestros cerebros están conectados a internet, nos preguntaremos: ¿cuál es la diferencia entre un humano y un robot?
Tu trabajo se centra hoy fundamentalmente en día en romper lo que denominas la “barrera de cristal” en internet, implicando a los cinco sentidos para conseguir una mayor fusión del mundo real y el virtual.
El olfato y el gusto son los únicos sentidos que están conectados al sistema límbico del cerebro, que es el responsable de las emociones y la memoria. Por tanto, pueden afectar subconscientemente a tu estado de ánimo o despertar un recuerdo. Hoy internet está “detrás del cristal”, de la pantalla de nuestro portátil o nuestro teléfono. Es como mirar a través de una ventana. Puedes ver cosas, pero no olerlas ni tocarlas. Lo que pretendemos es expandir esa experiencia más allá del cristal y alcanzar la siguiente fase de internet implicando a nuestros cinco sentidos.
En este sentido, en Mixed Reality Lab estáis desarrollando una serie de “gadgets”, como el RingU o el Kissenger. ¿Qué son exactamente?
La idea es conseguir tocarnos los unos a los otros a través de internet. Hace unos cuantos años creamos un “pijama que abraza”, pensado para aquellos padres que pasan mucho tiempo lejos de sus hijos. Imagina que estás lejos de casa, en un viaje de trabajo. Con este sistema puedes llamar por teléfono a tu hijo o hablar con él a través de Skype y abrazarlo gracias a este pijama que reproduce el tacto a través de internet. Pero queríamos conseguir algo más portátil. En nuestra vida diaria utilizamos relojes, collares, pendientes, anillos… cosas que ponemos en nuestros cuerpos y que son tan cómodas que nos olvidamos de que las llevamos puestas. Así que decidimos desarrollar un anillo háptico, táctil, el RingU. Cuando lo acaricias, se conecta a internet a través de tu móvil y tus seres queridos reciben la caricia estén donde estén. El Kissenger (“kiss messenger”) es un pequeño robot que, al besarlo, mide la presión de tus labios y envía la señal del beso a tus seres queridos a través de internet.
En lo que respecta al gusto y al olfato también estáis desarrollando una serie de aparatos con vistas, entre otras cosas, a su aplicación en el mundo de la gastronomía.
Estamos en una fase muy temprana de este proceso. Lo que necesitamos conseguir es la digitalización de las señales del olfato y el gusto, porque no es posible enviar sustancias químicas por cable o por ondas de radio. Por eso hemos desarrollado una máquina eléctrica de gusto. Básicamente es un aparato con electrodos que colocas en tu lengua. Cuando experimentas un sabor real, un sabor amargo, por ejemplo, se produce una ionización química en tu lengua que se convierte en una señal eléctrica que estimula las neuronas del gusto en tu cerebro. Con este aparato estimulamos los receptores y las neuronas del gusto directamente, de tal modo que conseguimos experimentar un sabor amargo, por ejemplo, sin necesidad de utilizar sustancia química alguna. También hemos desarrollado el Scentee, un aparato que insertas en tu móvil y, cuando envías a alguien un mensaje, emite un olor a través de su propio móvil. Por ejemplo, si es el cumpleaños de tu madre puedes enviarle un aroma a flores o a chocolate. También hemos trabajado con Andoni Luis Aduriz y Mugaritz para reproducir y enviar el aroma de uno de sus platos, el de las semillas de sésamo al ser molidas en el mortero con el azafrán… para emitir una idea de lo que sería la experiencia de estar en el restaurante. El siguiente paso será obtener una estimulación no química del olfato. El problema es que el bulbo olfativo está detrás de la cavidad nasal y es muy difícil e incómodo colocar ahí un electrodo, así que estamos tratando de conseguirlo utilizando campos magnéticos.
Parece que la experiencia de comer en un restaurante en el futuro podría ser completamente distinta a lo que hoy en día conocemos…
Recuerdo que Andoni Luis Aduriz dijo algo que me pareció visionario: en el siglo XXI ya no se trata de cortar zanahorias o de hacer una sopa, sino de crear una experiencia, y lo digital es parte de la experiencia. Así que tendremos también una realidad mezclada en lo que respecta a la comida. Los chefs visionarios quieren crear la experiencia emocional más excitante posible. Seguiremos teniendo comida analógica, pero lo que haremos será mejorarla con lo digital. Por ejemplo, ahora mismo es complicado conseguir que la comida pase de dulce a salada en un segundo, pero lo podremos hacer cuando mejoremos la comida con lo digital. Cuando consigamos digitalizar sabores y aromas y emitirlos través de estas interfaces se abrirá un nuevo campo para la creación gastronómica. Por poner un ejemplo, cuando la música se digitalizó, cuando apareció el primer CD, la gente se entusiasmó porque podía escuchar una sinfonía de Beethoven con perfecta claridad, como si estuviese en una sala de conciertos. Pero eso fue sólo el comienzo. Ahora puedes hacer tipos de música completamente distintos en lo que respecta a la creación, a través de sintetizadores e instrumentos digitales. Del mismo modo, podremos crear distintos tipos de comida que son muy complicados de conseguir sin lo digital. Podemos imaginar que, en el futuro, igual que podemos programar software en el ordenador, también podremos programar comida, así que ser un chef será casi como ser un programador. Con estos aparatos digitales podrán crear sabores y aromas digitales, pero también comida física, gracias a las impresoras 3D. Podrán diseñar la comida en el ordenador y después imprimirla. Gracias a esta fusión del mundo físico y el virtual los chefs encontrarán nuevas vías de expresión.
Otro de tus proyectos se llama “Food Media, un novedoso tipo de comunicación interactiva entre los miembros de la familia a través de la comida”. Esperas que “mejoren radicalmente los vínculos familiares y la comunicación intergeneracional”. ¿Cómo funciona?
Querían algo que conectase a los ancianos con sus amigos y familiares, porque en Japón, como en muchos otros lugares, la población está envejeciendo rápidamente y los ancianos sufren soledad y depresión. Así que decidimos mirar al pasado, cuando las familias completas, abuelos, padres e hijos, vivían en una misma casa y cocinaban y comían juntos, en lo que suponía un momento de intensificación de esos vínculos familiares. Queríamos reproducir eso a través de internet. Lo que hicimos, por ejemplo, fue desarrollar utensilios, tenedores, cuchillos, cucharas, que permitían “sentir” la mano de tu abuela ayudándote a preparar el plato, a remover lo que hubiese en el puchero. También desarrollamos sistemas a través de los cuales los miembros de la familia podían sentirse como si estuviesen comiendo juntos, no sólo con una videoconferencia, sino también transmitiendo aromas de una cocina a la otra. Y gracias a una versión muy básica de una impresora 3D los niños podían diseñar dulces muy simples que se imprimían con azúcar y gelatina en casa de la abuela.
Otra de las ramas de tu investigación es lo que denominas “Lovotics”, que se refiere a las relaciones románticas entre humanos y robots. Y estás trabajando con el experto en inteligencia artificial David Levy en un agente de chat llamado “iFriend” que me hace pensar en la película de Spike Jonze Her, en la que el protagonista se enamora de su sistema operativo (que tiene la voz de Scarlett Johansson, lo que sin duda facilita las cosas…). Pensaba que era una película de ciencia-ficción, pero…
De hecho, mi amigo David Levy fue uno de los asesores de esa película… Si lo piensas, la película no está tan alejada de la realidad. Hoy ya vemos que a la gente le gustan los personajes virtuales. Hubo un caso en Japón de alguien que quería casarse con el personaje de un juego de ordenador. Pronto veremos robots de apariencia humana muy realista y que podrán hablar y respondernos como si fuesen humanos. Por eso estamos trabajando en ese agente de chat. Las personas nos empiezan a gustar, como amigos o amantes, cuando compartimos nuestras mentes con ellas, hablando, conversando acerca de cosas. Una vez que consigamos crear robots que no sólo tengan un aspecto muy humano, sino que también hablen como los humanos, pronto veremos que la gente se enamora de ellos, e incluso tiene relaciones sexuales con ellos. Los niños suelen sentir mucho afecto por objetos inanimados, como sus ositos de peluche. Y los adultos también pueden llegar a llorar cuando se les muere su mascota. Llegar a enamorarse de un robot no supone un paso demasiado grande con respecto a esto, especialmente si tienen un aspecto realista y puedes hablar con ellos y te responden de un modo humano. Si la estimulación es lo suficientemente buena, la gente empezará a sentir afecto y amor por los robots.
Entrevista realizada por Raúl Nagore.
Adrian Cheok es Profesor de Computación en la City University de Londres y fundador y director del Mixed Reality Lab (Laboratorio de Realidad Mezclada), Adrian David Cheok ha centrado sus investigaciones de los últimos años en pensar y diseñar un futuro en el que el mundo virtual y el físico lleguen a fundirse. Algunos de los mecanismos en los que está trabajando, relacionados con la digitalización de sabores y aromas, podrían algún día modificar por completo la experiencia de cocinar y comer en un restaurante.