En la mente de todos sigue latente esa escena de ‘Minority Report’ en la que el protagonista utiliza simples gestos de su mano para controlar una IU holográfica. Como estamos viendo suceder en los últimos años, el salto de la ciencia ficción a la realidad cada vez tiene una longitud —y un tiempo de ejecución— menor, y el reconocimiento gestual es una de las tecnologías que han conseguido romper la brecha. Hasta tal punto que quizá, en unos pocos años, se convierta en el principal medio de interacción con nuestro vehículo.
Mover la mano y que tu vehículo lo interprete
En la actualidad, mecánica y electrónica compiten por dominar los diseños de nuestros automóviles, y parece que tanto el presente como el futuro están inclinando la balanza hacia la segunda. Esta evolución tiene repercusiones más allá de la fabricación del propio vehículo: es determinante a la hora de establecer cómo nos relacionamos con él, cómo lo utilizamos y cómo podemos controlarlo. Es el momento —y quizá todavía no seamos conscientes de ello— de cambiar las pautas de actuación entre humano y máquina.
El control gestual disponible en el nuevo Volkswagen Golf permite al conductor manejar y moverse por los menús del sistema de entretenimiento del vehículo con una serie de gestos hechos con la mano. Estamos ante la tecnología de interacción con ordenadores más reciente aplicada al mundo del motor. Prioriza la facilidad de uso y la intuición sobre el aprendizaje y la atención, e integrada en un vehículo, da un paso más allá en usabilidad y comodidad, y lo que es más importante, también en seguridad.
En los vehículos, la interfaz perfecta es aquella que evita cualquier distracción al conductor. Y en los vehículos actuales, convertidos en sofisticadas plataformas para el entretenimiento y para la comunicación, este requisito hace que sea necesario reinventar cómo se establece la comunicación mutua entre el vehículo y el conductor.
Las marcas de automóviles han encontrado la solución desarrollando nuevas interfaces basadas en tecnologías hápticas —relacionadas con el tacto—, en el control por voz y en el control y reconocimiento gestual. Se adoptan así interfaces de usuario que tienen su origen en los ordenadores y en los dispositivos móviles, en una clara muestra de cómo los coches están evolucionando cada vez más desde el concepto de máquina mecánica hacia un ámbito donde la comparación más cercana se establece con ordenadores y electrónica. Cuando todo cambia en un vehículo, también cambia la forma de manejarlo y de comunicarse con él.
En 2002 John Underkoffler inventó y diseñó la interfaz para el ordenador que aparece en la película ‘Minority Report’, y que pasó del plano de los efectos especiales a la realidad a través de g-speak, su concreción en el mundo real. Aquella no fue la primera vez que se planteaba el manejo por gestos de un ordenador, pero el de Underkoffler se convirtió en la máxima expresión del futuro de los ordenadores: demostró las posibilidades y el potencial que tiene una interfaz que es capaz de colocar al usuario en algún punto intermedio entre el ordenador y lo intangible, entre lo intangible y la representación de aquello que la gente ya conoce y usa de forma instintiva y natural (la conversación, los gestos) y darle una nueva utilidad. Por ejemplo, para controlar ordenadores, y por qué no, también coches.
De modo que control gestual no es solo un ejemplo de este cambio que casi se podría decir que ha comenzado en el plano del motor, sino que el control gestual es en realidad el pistoletazo de salida hacia el futuro de la interacción entre el hombre y las máquinas con las que convive, una interacción que tiene como epicentro la intuición humana y cómo esta es interpretada —y prevista— por el ordenador.
El renacimiento de las interfaces de ordenador
Las tecnologías hápticas y el control por voz y gestos representan un cambio en la forma en que manejamos y nos relacionamos con las computadoras. Se trata de “un renacimiento de las interfaces de ordenador”, dice Dave Wiskus en ‘Better Elevation’, una breve pero interesante charla en la que hace un repaso a la evolución de las interfaces de usuario desde los inicios de los ordenadores personales a la actualidad. “Ya no es importante el aspecto de lo que se ve en la pantalla, sino lograr que la fusión perfecta entre el hardware y el software resulte en una interfaz funcional y fácil de utilizar”.
Probablemente a diario manejamos más procesadores de los que sabríamos decir. Algunos los usamos sin apenas darnos cuenta de que están ahí, otros los tenemos más presentes y unos pocos no pasan desapercibidos en absoluto. Eso es algo que depende mucho de la manera en que interactuamos con ellos: tecleando, arrastrando un puntero, haciendo clic, tocando la pantalla, pulsando botones, realizando ejercicio físico, mirando, hablando o haciendo gestos. En general, cuanto más simple y más intuitivo es un ordenador, menos conscientes somos de estar manejando uno. Una pulsera de actividad simplemente está ahí y no hay mucho que se pueda tocar. Un teléfono móvil con pantalla táctil o una tableta se manejan de forma casi automática y apenas hay que pararse a pensar cómo funcionan. En cambio usar un ordenador con teclado y ratón exige un mayor esfuerzo y atención.
El control por gestos se ha desarrollado ampliamente en plataformas de entretenimiento y en videoconsolas. Además de intuitivo es también familiar. La simplificación en la interacción resulta en videojuegos que son accesibles para un público más amplio y más diverso, mientras que la videoconsola —o el ordenador— “desaparece” en el proceso de juego: toda la atención se centra así en la experiencia de uso y en la diversión.
De forma parecida, el control por gestos aplicado a los automóviles ayuda a que el conductor disfrute del viaje y de la conducción y a que centre su atención en la carretera. Y a la vez que todo lo accesorio desaparece todo aquello que está pensado para el confort y la seguridad del conductor permanece a su disposición.
La complejidad medida en millones de líneas de código
La complejidad que se esconde tras cada uno de los distintos sistemas que usamos a diario es mayor de lo que podemos suponer inicialmente, si es que acaso llegamos a pararnos a meditar sobre ello. Millones de líneas de código que se esconden tras interfaces opacas, cuya fluidez elimina de la ecuación cualquier pensamiento al respecto de la inmensidad que hay en su composición. Párate y reflexiona sobre lo avanzado e intrincado del software que maneja un vehículo. ¿Eres consciente de que hay más trabajo ahí que en el que controla un avión de pasajeros?
Las ventajas del control por gestos en los vehículos
Hasta ahora, para poner música en el coche el conductor debía dirigir su atención a la consola y pulsar uno o varios botones físicos. Tal vez seleccionar la opción correspondiente en una pantalla táctil o controlada desde un mando o ‘joystick’. Eso supone que el conductor debe desatender la conducción en mayor o menor medida y que probablemente en algún momento apartará la vista de la carretera. Es un tipo de interfaz basada en el conocimiento: para pasar a la siguiente canción, por ejemplo, es necesario conocer de antemano cuáles son, cómo son y dónde están los botones o las opciones que ejecutan esa función. O mirarlo sobre la marcha.
Una interfaz natural y fácil de utilizar es aquella que utiliza lo que la gente ya conoce y lo aprovecha para enseñar a manejar algo nuevo o para facilitar la ejecución de una tarea. Es una interfaz basada profundamente en la intuición. Por ejemplo, todo el mundo conoce y reconoce el gesto que se hace con la mano para indicar “pasar” o “avanzar”, por ejemplo al dejar salir primero a alguien en el ascensor o para ceder el sitio en una cola. Cuando el equipo de audio del vehículo entiende ese mismo gesto también como “pasar de canción” o “avanzar” en las opciones del menú entonces se implanta una comunicación entre conductor y coche muy parecida a la que tiene lugar entre personas.
En los vehículos el control por gestos cobra especial relevancia: los botones físicos se pueden encontrar a tientas y ofrecen una respuesta física, pero resultan insuficientes para utilizar todas las posibilidades que incorporan los sistema de de entretenimiento. Una interfaz visual representada sobre una pantalla da cabida a más información y a una mayor cantidad de opciones, pero en cambio adolece de la ausencia de retorno y de respuesta al tacto, y hace necesario prestar atención a la pantalla.
Descubre una nueva forma de conducción gracias a la tecnología háptica y el control gestual
El tacto y la escritura de hoy serán la voz y el pensamiento mañana. Creamos máquinas que proporcionan a otros la capacidad de crear máquinas que a su vez proporcionen nuevas capacidades a los demás. No porque queramos conectarnos con la tecnología, sino porque queremos tener mejores herramientas para conectarnos entre nosotros.
— Dave Wiskus, “Better Elevation”
Pero en la práctica en los coches rara vez reina el silencio. La música, las conversaciones, los sistemas de entretenimiento, el GPS parlante, las películas, el ruido aerodinámico en un descapotable, los juegos de los niños... La tecnología para la lectura de labios desarrollada por LipNet es capaz de reconocer con una fiabilidad del 95% qué está diciendo el conductor en todo momento.
Se ha desarrollado como complemento a los sistemas de reconocimiento de voz que mejora y posibilita el entendimiento entre el conductor y el vehículo más allá del ruido ambiente, incluso cuando el sistema de reconocimiento de voz no pueda escuchar las instrucciones.
Tu vehículo puede saber cuánto alcohol has ingerido... y tomar medidas al respecto
Un ejemplo de funcionalidad derivada de la observación del conductor por reconocimiento facial o biométrica (a través de cámaras o de la medición de rasgos conductuales o físicos) tiene que ver con la posibilidad de detectar si la persona que se dispone a conducir ha ingerido alcohol.
La NHTSA, el equivalente a la DGT en EE. UU., está probando dos desarrollos con este fin. Uno de ellos analiza el aire exhalado mediante una proyección de luz láser que revela la presencia de moléculas de etanol en el aliento. Otro se basa en detectar las mismas moléculas de etanol que transpiran a través de la piel empleando un sensor de luz infrarroja situado en la palanca de cambios o en el botón de encendido del vehículo. En caso de dar positivo esa persona no podría poner en marcha el coche, ni conducirlo.
El vehículo alerta y toma el control
La incorporación de todos estos sensores y tecnologías complementarias significa que también es necesario reinventar la manera en la que el vehículo se comunica con el conductor. Ya no es suficiente con que el vehículo encienda una luz en el salpicadero que requiera la atención del conductor para interpretar su significado.
Las tecnologías hápticas aprovechan las percepciones humanas, más allá de la vista y del oído. En conjunto, en la experiencia de conducir y en el manejo del vehículo participan ahora el sentido de la vista, el tacto, el oído y la propiocepción, y también la intuición.
A través del tacto, el vehículo puede alertar al conductor haciendo vibrar el volante o el asiento, de manera que el conductor no tiene que pararse a pensar qué está sucediendo. Por ejemplo, si el volante vibra al intentar cambiar de carril significa que por algún motivo no es buena idea ejecutar la maniobra, bien porque no se ha indicado o bien porque hay un obstáculo como otro vehículo en un lateral que tal vez el conductor no está viendo en el retrovisor, pero que los sensores por ultrasonidos y las cámaras perimetrales del vehículo sí ven.
Una vez que el vehículo es capaz de detectar que existe algún tipo de riesgo para el conductor, por ejemplo, al iniciar una maniobra de cambio de carril, evitar ese riesgo es solo cuestión de actuar sobre el elemento adecuado. Más allá de alertar al conductor, los vehículos cada vez más se implican de forma activa en la conducción, y si es necesario llegan a tomar el control del vehículo para garantizar la seguridad.
Por ejemplo, ante la inminencia de un impacto un vehículo puede limitarse a alertar al conductor, o puede alertar al conductor y además accionar los frenos para detener el coche, o intervenir en la dirección para evitar el obstáculo. La tecnología que posibilita eso está ahí, y las marcas de coches la utilizan para ofrecer vehículos más seguros por su propia iniciativa. Se trata del primer paso hacia los vehículos autónomos.
El vehículo autónomo no es solo aquel que conduce por sí mismo, sino también el que avanza teniendo en cuenta que su función es garantizar en todo momento la seguridad de sus ocupantes y de todas las demás personas que se crucen en su camino. De este modo el vehículo autónomo es el robot perfecto.
Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño - Isaac Asimov.
La concreción del futuro: ¿podemos conducir a base de intuición?
Según los expertos, en un futuro a diez o quince años los teléfonos móviles tal y como los conocemos hoy en día desaparecerán. No desaparece la idea de disponer de un ordenador personal potente y capaz de mantenernos conectados y en comunicación con los demás y con el mundo de forma permanente, sino la manera en que lo manejamos e interactuamos con él. Tal vez vaya integrado de tal manera que podamos controlarlo únicamente con la voz o mediante gestos o incluso con la mente. Lo que es seguro es que será diferente, y que será la intuición quien guíe nuestros movimientos y palabras para comunicarnos con la máquina.
Lo mismo sucederá con el resto de ordenadores con los que convivimos, incluyendo los coches: mientras que ahora los diferentes ordenadores que usamos se manejan de manera diferente con el tiempo se producirá una confluencia en la que en general cualquier tipo de ordenador se manejará de la misma forma o muy parecida, con excepciones.
Recientemente Volkswagen presentó su prototipo ID, un vehículo eléctrico con capacidad para circular de forma pilotada o autónoma a elección del conductor o de las circunstancias del tráfico. Al pasar al modo autónomo, el volante del Volkwagen ID se repliega quitándose de en medio; la configuración interior del vehículo cambia para proporcionar espacio y libertad al conductor. Cualquier accesorio del vehículo, el sistema de entretenimiento y de información de a bordo se podrá controlar con la voz o mediante gestos ya que es el vehículo el que conduce.
No serán necesarios por tanto los controles mecánicos habituales: volante, pedales, palanca de cambio… del mismo modo que en otros ordenadores ya no serán necesarios los teclados, los ratones o las pantallas táctiles. El coche supervisará la conducción en todo momento, también cuando el conductor decida pilotar. Como en el caso de los móviles, con este cambio no desaparecerá la idea de viajar, de trasladarse individualmente ni de utilizar un coche sino que cambiará el significado de conducir, la manera en que manejamos e interactuamos con el ordenador-coche.
Más cerca del vehículo autónomo con Sedric
La autonomía del vehículo es la meta hacia la que tienden los actuales avances en el sector. Sedric (SElf DRIving Car) es la primera representación conceptual de coche autónomo de Volkswagen. Para Volkswagen “los vehículos autónomos son un elemento clave en la estrategia a futuro del grupo”, y Sedric redefine por completo la movilidad individual: lleva a los pasajeros hasta su destino con solo pulsar un botón. Los ocupantes pueden indicar por voz —o a través de una app en el móvil— a dónde desean ir y Sedric se encarga de todo lo demás. Sus tareas incluyen transportar al usuario al trabajo y tal vez después llevar a los niños al colegio, recoger el domingo a la abuela o entrar en la zona de carga del supermercado para que le entreguen la compra. O simplemente encontrar un hueco en el cual aparcar hasta que alguien necesite hacer uso de él.
El prototipo presentado recientemente por Volkswagen es un vehículo de cuatro plazas con un nivel 5 de autonomía: eso significa que en la cabina de Sedric no hay mandos, ni volante ni pedales. Es más como “una sala de estar con ruedas”. En su interior el parabrisas es una pantalla OLED que sirve como centro de comunicaciones y de entretenimiento, mientras que el aire de la cabina se purifica con plantas y filtros de carbón obtenido del bambú.
Es la concreción de un futuro en el que la comunicación mecánica con el vehículo habrá desaparecido, un futuro en el que la nueva brújula será el mapa tridimensional y el volante, simplemente la intuición traducida en palabra, gesto y decisión.