lunes, 27 de marzo de 2017

Está pasando:

Tribuna

Los robots transparentes

  • El gran cambio es que hoy la inteligencia artificial permite delegar la decisión en la máquina, con reglas de aplicación general y no instrucciones concretas
Imprimir

En los recientes sucesos de Dallas, la policía utilizó un robot para matar a un tirador parapetado. Treinta y cinco años después del primer muerto a manos de un robot (Kenji Urada), la posibilidad de utilizarlos para adoptar medidas excepcionales será pronto una realidad frecuente.

En el terrorífico escenario de una crisis de rehenes, la tecnología actual hubiese permitido enviar un minidron capaz de evaluar en tiempo real y con precisión la situación, computando el número, características físicas y salud de los involucrados, y haberle autorizado a tomar las decisiones para las que hubiese sido programado. Hasta hace poco, ese era el límite: un robot podría desencadenar acciones concretas siguiendo su programación.

El gran cambio es que hoy la inteligencia artificial permite delegar la decisión en el robot, que contiene reglas básicas de aplicación general y no instrucciones concretas. El robot puede analizar una situación, decidir y aprender, esto es, evaluar la utilidad de actuar de manera letal o no valorando el riesgo de daños colaterales. Lo haría bajo reglas generales de salvaguarda del mayor número de años de esperanza de vida, por ejemplo, y por ello eligiendo quién muere.

Un humano encontraría serias dificultades éticas y de agilidad mental si tuviese que elegir disparar a un terrorista matando de manera simultánea a una pareja de ancianos que se hallan junto a él, con el fin de salvar a un niño. Un robot podría hacerlo y su acción habría obtenido un mejor resultado, objetivamente hablando.

La cuestión no es, por tanto, si puede hacerlo, sino quién construye el proceso de pensamiento del robot. La inteligencia artificial propone diferentes fórmulas de desarrollo y autoaprendizaje hoy.

"El aprendizaje de la máquina será más independiente y rápido, y podría devenir en ajeno al comportamiento esperado"

Machine learning no es un mero concepto, es una realidad y nos permite desligarnos de los resultados de ese aprendizaje. Ello abre un problema ético que ya afrontamos actualmente: la responsabilidad de los padres y los educadores. En nuestro mundo humano, la convención acordada es la mayoría de edad. En el de los robots inteligentes, deberá acordarse ese momento. En un plazo muy corto de tiempo, la superación del humano será un estándar, por lo que deberemos poner atención en la tutela de las máquinas. Una propuesta sencilla podría ser hacer transparentes, visibles a la sociedad, los procesos mentales de estas máquinas o, al menos, sus reglas fundamentales.

Las reglas no serían tan bellas como aquellas esbozadas por Isaac Asimov, pero sí lo suficientemente claras para que terceros –autoridades, especialistas– pudiesen evaluar su idoneidad o predecir sus consecuencias.

El ciudadano normal entiende hoy cómo debe actuar un miembro de las fuerzas de seguridad que además cuenta con códigos internos. Mañana, la ejecución de la política de seguridad y protección podría quedar en manos de reglas de inteligencia artificial que interpretarían leyes y códigos y aplicarían la experiencia anteriormente documentada. Las reglas de decisión deberían ser expuestas de manera abierta y transparente para ser auditadas y aprobadas por, al menos, alguien más que el propio tutor-programador. Debe instaurarse una capa de control clara que va más allá de la actual. La novedad reside en que el aprendizaje de la máquina será más independiente y rápido cada día, y podría devenir en ajeno al comportamiento esperado.

No será fácil intervenir en el comportamiento de la inteligencia artificial. Cloud robotics implica que el robot carece de límites en procesamiento e información y accede a todo el conocimiento en la nube, que es mucha más información de la que sus diseñadores pudieron prever. La programación de la inteligencia artificial puede quedar pronto en manos de utilidades de esta no tuteladas por humanos: aplicaciones que desarrollan cómo deben aprender otras aplicaciones e inteligencia que diseña su propia evolución. A la necesidad de transparencia, se uniría por tanto la evaluación continua, pues variarán de manera rápida.

Este sistema de tutela es comparable el de los actuales robots financieros. Los robo-advisors toman decisiones de inversión de manera ágil, aprenden y reaccionan a los movimientos de mercado. En miles de instrucciones de mercado superan a sus competidores humanos tanto en velocidad como en calidad de decisión. Cuando operan ofrecen una transparencia total en la reglas generales de estrategia (riesgo, volatilidad tolerada, etcétera) y sus continuas decisiones se enmarcan dentro de ella.

Ese mismo procedimiento se debería aplicar a los robots destinados a otros fines. Las reglas básicas, la base ética o moral del robot, su escala de valores, creada al inicio por el humano, debería ser objeto de tutela humana continua, basada en el procedimiento de transparencia propuesto.

La verdadera necesidad de supervisión viene determinada por el hecho de que la eficacia es el fin último de la nueva generación de robots. Ello implica la consecución de objetivos tomando decisiones acertadas. Presuponer que la decisión más correcta será adoptada por un robot puede ser ingenuo por nuestra parte. Adoptará, por el contrario, la mejor enfocada a la consecución de su objetivo y por ello debemos no solo darle un marco de actuación sino estar junto a él de manera permanente para ver cómo lo evoluciona. Y sobre todo, cómo sigue evolucionándolo cuando, a través del su capacidad de aprendizaje, se haga tan adulto que ya no requiera nuestra tutela y comience a relativizar todo lo aprendido.

Pedro Cervera Ruiz es mentor de Endeavor Spain.



Comentarios Normas

comentarios

Para poder comentar debes estar registrado y haber iniciado sesión

¿Por qué registrarse?

  • Comenta las noticias
  • Asiste a nuestros eventos
  • Participa en concursos
  • Gestiona comunicaciones, newsletters y alertas
  • Recibe novedades de Cinco Días

seguir a cinco días

Recibe más contenido de Cinco Días. Suscríbete a nuestras newsletter aquí

Cinco Días

Cinco Días

Cinco Días

BLOGS

Creatividad, innovación y atreverse a cruzar la línea (2ª parte)

Convertir la novedad en valor

Francisco González Bree

Los pecados capitales empresariales

El blog de trabajo y empleo

Euribor empleo

Somos como somos

El blog del Euribor

Euribor

<

1 de 3

>
© ESTRUCTURA GRUPO DE ESTUDIOS ECONÓMICOS S.A.- Miguel Yuste, 42 - 28037 Madrid [España] - Tel. 91 538 61 00

Webs de PRISA

cerrar ventana