domingo, 23 de agosto de 2009

Un robot mata a un humano: ¿Quién es responsable?

La Real Academia de Ingeniería ha publicado un reporte en el que se exploran las implicancias sociales, legales y éticas que tendría el cederle el control absoluto a los robots. Algunas cuestiones son realmente espinosas, especialmente las que se relacionan con la vida humana. Si una máquina autónoma mata a un humano, ¿de quién es la culpa?

La pregunta no es, en absoluto, trivial: Si un robot mata a un humano: ¿Quién es el responsable? Las leyes actuales, como es obvio, no contemplan cuestiones de este tipo. Pero tampoco la sociedad se ha planteado seriamente el tema, a pesar de la proliferación de robots de todo tipo. El problema puede presentarse en cualquier momento y, de hecho, hay algunos antecedentes. Por ejemplo, en 1984 un trabajador de Michigan (EE.UU.) murió cuando fue aplastado por un robot industrial. Se trato de un accidente laboral, ya que el robot carecía de inteligencia propia. Para Chris Elliott, un profesor de Ingeniería en Sistemas del Imperial College London, “es importantísimo poner en la mesa este tipo de cuestiones desde muy temprano, para que un cuadro regulatorio correcto y apropiado se ponga en marcha.

Prácticamente todos los días se hace algún avance en las tecnologías relacionadas con la robótica y la inteligencia artificial. Si bien aun estamos lejos de construir algo similar a los androides inteligentes que nos ha mostrado el cine, lo cierto que muchas máquinas actuales tienen una “inteligencia” que las hace -sin lugar a dudas- algo muy distinto a las herramientas tradicionales. Es inevitable que en el futuro cercano una de estas máquinas provoque, debido a alguna clase de error en su “línea de pensamiento”, la muerte de un humano. Cuando ocurra, seguramente querremos saber quién es el culpable de esa muerte. Pero si no comenzamos hoy mismo a discutir sobre la distribución de las responsabilidades, seguramente no tendremos una respuesta.

Uno de estos simpaticos cacharros podría matar por accidente.

Cuando un humano comente alguna clase de crimen o mata a otro en un accidente, tanto el derecho legal como el sentido común proporcionan una respuesta -casi siempre- sin ambigüedades sobre quién es el culpable del hecho. Sin embargo, si una pistola tuviese la inteligencia suficiente como para disparase sola, o un automóvil pudiese decidir cruzar un semáforo en rojo y atropellar a alguien en el proceso, la cuestión seria mucho más difícil. Tenemos por delante la tarea de debatir si la responsabilidad es de quien diseñó la IA del robot, de quien lo construyó, del dueño de la máquina o -por qué no- del robot mismo.

En caso de que decidamos que los robots serán responsables directos de sus actos, tendremos que plantearnos también cuáles son sus derechos, si merecen un salario (¿querrán cobrar en voltios o en litros de aceite?) o si son dueños de sus robóticas vidas. Mientras tanto, si ves que un brazo robot se te viene encima, te conviene hacerte a un lado: si te aplasta, no sabremos a quién culpar. Pero la pregunta es interesante. Si un robot autónomo, construido por un humano, mata a tu madre: ¿a quién culparías?

Fuente: Neoteo

1 comentarios:

brutal on 23 de agosto de 2009, 13:04 dijo...

PARA SABER QUE PASARIA, PORQUE MEJOR NO TE DEJAS MATAR POR UNO DE ESTOS ROBOTS......DIGO....Y YO ME ENCARGO DE HACER FAMA...DE QUE TU FUISTE EL QUE PUSISTE ESTO EN TU BLOG.....QUE TE PARECE??¿?¿??¿?¿?¿?

 

Tecnologia, Electronica, Deportes y Mucho Mas Copyright © 2009 WoodMag is Designed by Ipietoon for Free Blogger Template