La ONU pide código de conducta para los soldados robots

02, noviembre

El crecimiento exponencial de la inteligencia artificial y la robótica sigue generando dilemas éticos. El gigante ...

El crecimiento exponencial de la inteligencia artificial y la robótica sigue generando dilemas éticos. El gigante armamentístico Kalashnikov confirmó que está desarrollando armas autónomas y la ONU pide un código de conducta para los robots soldados.

La comunidad internacional abordó en la ONU posibles respuestas a los sistemas armamentísticos autónomos letales (descriptos a veces como “robots asesinos”), capaces de operar sin instrucciones humana.

“Se abordaron los pros y los contras y barajaron una gama de opciones políticas, que van desde adoptar una declaración políticamente vinculante, un código de conducta, un mecanismo de revisión continuada de la tecnología y un instrumento legalmente vinculante”, afirmó el embajador de la India ante la Conferencia de Desarme de la ONU, Amandeep Gill.

El diplomático indio preside el Grupo de Expertos Gubernamentales sobre Sistemas de Armas Autónomos Letales que se reunió del 13 al 17 de noviembre en Ginebra para abordar por primera vez de manera formal en la ONU los desafíos y las implicaciones éticas, técnicas, legales y militares de los llamados “robots asesinos”.

En el encuentro participaron algunos de los 125 Estados parte de la Convención, así como representantes de organizaciones internacionales, de la industria y de la sociedad civil, ONG y académicos.

Gill explicó que de este debate saldrán unas conclusiones y recomendaciones y, si hay consenso, la convocatoria para 2018 de una nueva reunión más larga, de dos semanas, sobre los “robots asesinos”.

Actualmente hay mucha confusión en torno a este concepto y no hay constancia de la existencia de “robots asesinos”.

Según los especialistas, los avances en el ámbito de la inteligencia artificial permitirán en poco tiempo crear armas, por ejemplo drones, capaces de operar de forma autónoma en el campo de batalla y de tomar decisiones por sí solos sin instrucciones humanas.

Una veintena de países ya pidieron prohibir esos sistemas, mientras activistas de derechos humanos advierten que al menos seis Estados están invirtiendo en este tipo de tecnología.

Gill quiso transmitir un mensaje tranquilizador a la sociedad, al afirmar que “la buena noticia es que los robots no están tomando el control del mundo”.

“Los humanos aún están al mando y continuarán estando en el control, y nos aseguraremos de que así siga siendo”, aseguró.

En la próxima cita, la intención del diplomático es que se aborde la temática de la “interfaz humano-máquina”, que se refiere a la interacción de la persona y un programa informático y que en el caso de los “robots asesinos” puede significar seguir o no controlándolos de alguna manera, frenarlos o retirarlos del campo de batalla.