Saltar al contenido

« ver todos los blogs

¿Robots combatientes? Robots culpables

8 enero 2010 - 22:32 - Autor:

robotpq

La guerra convencional de enormes ejércitos humanos despedazándose en las trincheras, que alcanzó el paroxismo durante la Primera Guerra Mundial, es cada vez más inusual y puede que acabe formando parte del pasado. En las guerras actuales cada vez son más las máquinas involucradas en la lucha, de modo que una gran batalla del futuro puede parecerse más al “Día del Juicio Final” en “Terminator” que a la Batalla del Somme. Según un cálculo de The New York Times, el número de robots letales en la guerra de Iraq ha pasado de 200 en 2004 a más de 18.000 en la actualidad. Y esto sólo es el principio: el Pentágono pretende que en 2015 uno de cada tres vehículos terrestres de combate no estén tripulados.

La proliferación de robots plantea un problema moral: su eficacia no está equilibrada con una ética para, por ejemplo, decidir que el enemigo está huyendo y, por tanto, no se le debe atacar, tal y como dicta el refranero. Este es el dilema que está intentando resolver el ingeniero robótico Ronald Arkin, de Georgia Tech, que lleva tres años involucrado en el diseño de un software para robots éticos autónomos por encargo del Ejército norteamericano.

Imaginar un ejército de robots y aviones de combate sin tripulantes dispara todas las alarmas de un espíritu sensible. Sin embargo, Arkin cree que en cierto número de situaciones, como operaciones contra francotiradores o asalto de edificios, los robots pueden comportarse más éticamente que los soldados humanos (piense ahora en un pelotón de marines aterrorizados). El motivo es que los robots pueden detectar y procesar más información que las personas, lo que debería permitirles tomar decisiones más informadas, según el ingeniero.

Para ello, eso sí, es necesario dotarles de una “arquitectura ética” en palabras de Arkin. Esa arquitectura sería una combinación de leyes internacionales de guerra y reglas éticas de comportamiento, del tipo de los imperativos categóricos kantianos, una suerte de corolario de las leyes de la robótica de Asimov aplicadas al escenario bélico.

Una vez introducida la “arquitectura ética, ¿cómo lograr que los robots cumplan con ella y aprendan de sus errores? Arkin barajó varias posibilidades: dotar a las máquinas de remordimientos, de compasión o de vergüenza. Finalmente se decidió por la culpa, en tanto “puede utilizarse para condenas un comportamiento específico y, simultáneamente, generar un cambio constructivo”. Gracias al software diseñado por su equipo, el robot puede evaluar el daño infligido en el campo de batalla y utilizar un algoritmo para calcular el nivel apropiado de culpa. A medida que la culpa vaya elevándose la máquina puede optar por escoger armas menos letales o bien por renunciar a la lucha.

Todo, como puede verse, muy aséptico y civilizado.

Visto en NYT. Ilustración de Reinhard Hunger para NYT.

TrackBack

URL del Trackback para esta entrada:
http://blogs.lainformacion.com/futuretech/2010/01/08/%c2%bfrobots-combatientes-robots-culpables/trackback/

4 Comentarios

Puede seguir esta conversación suscribiéndose a la fuente de los comentarios de esta entrada.

¡Anímate a ser el primero en dejar un comentario!

Lo sentimos, los comentarios para este post están actualmente cerrados.

Feed RSS

Suscríbete a nuestro RSS

¿De qué va este blog?

Futuretech se basa en diseños futuristas, plasmados en conceptos, ideas peregrinas, portfolios y hasta bocetos imposibles. Todos con un denominador común: el aparato sólo existe en la mente del creador o en los papeles del diseñador. Síguenos en @blog_futuretech y en facebook.com/futuretech.

Suscríbete a este Blog