Síguenos
Guillem Alenya, investigador del CSIC-UPC: “Las expectativas que tiene la sociedad sobre los robots suelen ser exageradas” Guillem Alenya, investigador del CSIC-UPC: “Las expectativas que tiene la sociedad sobre los robots suelen ser exageradas”
Guillem Alenya visitará Teruel este martes para dar una conferencia

Guillem Alenya, investigador del CSIC-UPC: “Las expectativas que tiene la sociedad sobre los robots suelen ser exageradas”

banner click 244 banner 244

Guillem Alenya es investigador del Instituto de Robótica e Informática Industrial del CSIC y la Universidad Politécnica de Catalunya, y responsable local de Sócrates, un proyecto europeo de robótica social que está desarrollando un robot para ayudar a enfermos de alzheimer a través de juegos de entrenamiento mental. El martes ofrecerá una conferencia en Teruel (Centro Cultural Ibercaja, 19 horas) sobre robótica e inteligencia artificial (IA), y tratará de desvelar dudas y deshacer tópicos sobre el futuro que le aguarda a la humanidad en cuanto a la interacción con las máquinas. 

- ¿Qué dudas suele despertar la robótica y la inteligencia artificial entre las personas?

- Nos hemos creado unas expectativas en torno a este mundo que están un poco exageradas, ya que esperamos muchas cosas que van a tardar bastante en llegar. Desde que las investigaciones empiezan a apuntar unos resultados hasta que eso se convierte en un producto pasa mucho tiempo. Y la gente tampoco tiene muy clara la diferencia entre robótica e IA, que si bien van de la mano en la investigación no son los mismo.

- ¿Qué diferencias hay que tener en cuenta para comprender ambos conceptos?

- Los robots en entornos industriales tienen más de 50 años, pero no necesariamente utilizan IA, que puede estar presente en muchas cosas que no necesariamente son robots. En bolsa, por ejemplo, se esta usando IA para comprar y vender acciones a muy corto plazo. La IA, básicamente, es aprender patrones que nos permiten predecir qué pasará en el futuro, de forma que cuando tenemos que tomar decisiones lo hacemos basándonos en la situación actual pero también en la proyección que hacemos de lo que va a pasar. 

- ¿La IA debe ser capaz de aprender, incorporando nuevos patrones a partir de su experienca, para ser considerada tal?

- Eso es lo que estamos haciendo ahora con los robots. Las técnicas habituales de IA requieren un montón de datos y pruebas para poder extraer patrones, y no importa que las decisiones sean erróneas. Pero en robótica no te puedes equivocar; un robot diseñado para dar de comer no puede ponerte un millón de veces la cuchara en el ojo antes de darse cuenta de que eso no está bien. Y muchas veces tampoco tenemos ese montón de datos que se necesitan para actuar, así que tenemos que actuar con modelos parciales, y tras cada actuación hay que evaluar si la decisión tomada ha sido correcta y aprender. 

- La ciencia ficción, la literatura y el cine nos ha llenado la cabeza de tópicos sobre la IA, como los Replicantes o los HAL 9000 que se vuelven locos. ¿Eso dificulta el trabajo de los investigadores de algún modo?

- No nos dificulta, pero muchas veces hace que tengamos poco impacto. Un robot capaz de ir a la cocina a buscarte algo sería un reto increíble que requiere integrar un montón de tecnologías y de ciencia, porque hay cosas todavía sin solucionar. Sin embargo nadie se impresionaría por eso porque ha visto en la tele cosas mucho más espectaculares, y le parecería poca cosa. 

- Antes ha dicho que las expectativas que tenemos con los robots son exageradas...

- Hay dos barreras que todavía se tienen que franquear. La primera es científica, porque aún no tenemos todas las piezas para que un robot pueda sustituir eficazmente a un humano fuera de un entorno muy controlado de laboratorio. Y el otro es tecnológico, porque una cosa es lograr un avance científico en laboratorio, y otras cosa es convertir eso en un producto efectivo, seguro, robusto y económico. 

- ¿Es teóricamente posible que algún día una persona pueda conversar con un robot sin advertir que lo es?

- Eso ya ha ocurrido en el Test de Turing, que se hace desde hace 60 años. Es una prueba en la que un jurado chatea con alguien sin saber si es un robot o un humano, y al final emite un veredicto. Pues el año pasado por primera vez en la historia un robot engañó al jurado, y le hizo creer que estaba hablando con un adolescente de 13 años. 

- ¿Y eso es bueno o malo?

- Depende del uso que la sociedad le dé. Hay una serie de cuestiones éticas que la comunidad científica se está planteando y la sociedad debería empezar a hacerlo. En Japón se usan robots para que las personas mayores se sientan acompañadas. A mí me parece correcto que una persona con su consciencia ya construida decida tener un robot de compañía en lugar de un animal o una persona, por ejemplo. Y con niños con espectro autista los robots están consiguiendo reacciones que con humanos no tienen, y eso me parece fantástico. Pero con niños sanos la cosa creo que cambia, porque pueden sustituir la interacción con otros seres vivos y enseñar una forma artificial de actuar con respecto al entorno. El robot no se va a enfadar conmigo haga lo que le haga y las responsabilidades que tengo con respecto a él no son las mismas que debo tener con un amigo o un animal, así que entramos en un terreno resbaladizo. 

- ¿La ciencia avanza más rápido que la conciencia?

- No es tanto ciencia sino tecnología. Esto es parecido a lo de poner a un niño de tres años delante del un teléfono móvil. Que algo sea posible tecnológicamente y que la economía decida que tiene que hacerse, para que Youtube o los anunciantes ganen dinero, no significa que podamos hacerlo sin causar daños. Deberíamos pensar más en estas cosas.