Arturo Garro, Ingeniero en software.

Domingo por la noche en Tempe, Arizona. El clima estaba algo frío. Una mujer, se arropa en su abrigo, toma su bicicleta y decide cruzar la calle. Un automóvil que transitaba por ahí, no se detiene y la atropella. Inmediatamente, las personas que estaban alrededor corren para ayudar a la mujer. Fue atropellada por un vehículo autónomo de Uber. Hasta ahora, los carros autónomos había cometido infracciones  a la ley de tránsito, como brincarse un semáforo en rojo, o hacer un viraje prohibido. Algunos se vieron involucrados en accidentes, sin víctimas. Este es el primer atropello mortal donde está involucrado un automóvil autónomo.

Comienzan las investigaciones. Uber se disculpa con la víctima. Las autoridades solicitan retirar los carros autónomos. Las partes llegan a un arreglo extrajudicial.

Desde la perspectiva de la ética robótica, que las partes hayan llegado a un arreglo extrajudicial no dejó espacio para debatir en una corte de quién era la responsabilidad acerca de la muerte de esa persona.

Parece simple: un carro de Uber la atropelló, entonces Uber debe ser el responsable. Pero no es así. Hay muchas otras empresas y personas involucradas en ese incidente. Si fue un accidente provocado por el software ¿Los programadores serán los responsables? ¿Y qué pasó con el control de calidad?;¿Se hicieron todas las pruebas necesarias en todos los ambientes posibles? ¿Fue el constructor? ¿El falso positivo fue ignorado por algún sensor por un fallo de fabricación? ¿Fue una omisión deliberada del programa? ¿El operador que iba en el carro tiene responsabilidad en el accidente?

Meses después, Uber da su veredicto respecto al accidente: El sistema de conducción detectó a la mujer como un “falso positivo” debido a un error de programación. Cuando un programa de conducción se mueve, tiene que estar pendiente de todo su ambiente. Una ráfaga de hojas, una bolsa, o algo que normalmente está en carretera hace que el automóvil detecte una presencia. Esa presencia debe ser verificada, si se determina que no es algo que sufra daño, se detecta como “falso positivo”. En este caso, fue una persona real.

No podemos hablar de carros autónomos sin pensar en robótica, y no se puede pensar en robótica sin la referencia a Isaac Asimov. Según Asimov, en sus escritos de ciencia ficción, existen tres leyes de la robótica: 1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley. Estas leyes al final fueron resumidas en la Ley 0: Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Estas leyes realmente están más orientadas a proteger al ser humano en contra del “efecto Frankenstein”, en el que la creación se vuelve contra su creador, causándole daño. Los robots deberían de estar al servicio del ser humano, y no al contrario.

Sin embargo, las leyes de Asimov, pertenecen al campo de la literatura de ciencia ficción. No existe, hasta el momento, ninguna legislación que incorpore las leyes de la robótica. Es perfectamente posible crear robots o inteligencia artificial que tenga como objetivo destruir seres humanos. Si, en este momento no hay legislación para prevenir que nadie construya los primeros “Terminators” o “Centinelas”. No están obligados de ninguna forma a programar los robots con las leyes de Azimov.

En esta situación, estamos adentrándonos todavía en aguas desconocidas. Hasta hace menos de diez años, la inteligencia artificial y los carros autónomos eran solamente parte de las series de ficción como el “Auto fantástico”. Hoy son una realidad.

Si esto le suena a fantasía, ya existen sistemas de inteligencia artificial capaces de detectar y lanzar misiles en caso de ataque. Existen misiles autoguiados, que deben detectar “blancos peligrosos” en zonas de conflicto. Quién podría evitar que otro “falso positivo” haga que un misil se dirija a un hospital o a una escuela llena de niños. Hoy se están probando sistemas robóticos para realizar delicadas operaciones. Si el paciente muere en operación ¿quién es el responsable? ¿El doctor? ¿El robot? ¿El diseñador? ¿El programador?

Legislar para el futuro

“En el futuro, si se generalizan los dispositivos autónomos, habrá que adaptar la ley”, coincide Óscar-Rubén Sanz, director técnico de Kalibo, una compañía con seguros para productos tecnológicos. “La legislación, de alguna manera, se anticipó al vincular, por ejemplo, el seguro a los vehículos. En este caso, ante cualquier daño, la víctima está cubierta, con independencia de que se determine que la responsabilidad fue del propietario, el conductor o un defecto de la máquina. Es una ventaja, pero no es suficiente para el inmediato desarrollo tecnológico”, comenta.

En la Unión Europea existe una ley para productos defectuosos, pero según Francisco Oliva, catedrático de Derecho Civil de la Universidad Pablo de Olavide, “La ley de productos defectuosos está pensada para un microondas, no para procesos de aprendizaje de las máquinas cuyas consecuencias son impredecibles”.

Quizá en este momento, todavía estemos especulando y hablando de temas que pertenezcan a la ciencia ficción, pero muy pronto las responsabilidades individuales y civiles tendrán que ser redefinidas, al ampliarse el espectro de la robótica y la Inteligencia Artificial.