Y ¿Qué es eso de Inteligencia Artificial de grado militar?

Periódico Opción
13 Minutos de lectura

Por Henry Izurieta

En Ecuador poco se conoce -y se habla menos- sobre el impacto que tiene y tendrá el uso de la Inteligencia artificial en el ámbito militar. 

Tal como, en su momento, sucedió con el aparecimiento de las computadoras, es en el ámbito militar en el que esa tecnología ha tenido su principal impulso para llegar al nivel de desarrollo que  se expresó en las computadoras personales y el internet, ahora en el desarrollo de la inteligencia artificial, aunque, intervienen otros factores que lo complejizan más.

Incluso en películas se puede deducir el importante desarrollo tecnológico de las armas, comenzando por ametralladoras, pistolas, pasando por indumentaria hasta terminar en barcos, aviones, submarinos y espacio exterior.  El campo militar está fuertemente incidido por la tecnología.  El principal desarrollo tecnológico de la presente época, aunque no el único, es la inteligencia artificial, ¿Hasta dónde ha penetrado en la esfera militar?

La forma de la inteligencia artificial más conocida y de uso común es la que se presenta en el ChatGPT de Open IA, Gemini de Google, Copilot de Microsoft y otros para temas especificos como elaboración de presentaciones, videos, poesías, informes, consejos, …   Todos ellos tienen la característica de utilizar la tecnología de Inteligencia Artificial denominada “procesamiento del Lenguaje Natural” (PNL) que, en conjunto con el GNL o Generación de Lenguaje Natural, logran mantener una conversación con el usuario, quien  entrega y recibe información, luego de que fue procesada.  La relación entre personas e IA es cada vez más común y aceptada, cotidiana.

Otro ámbito de aplicación de la inteligencia artificial es el que incluye a las formas, los gráficos, fotografías, figuras, lo que se denomina “visión artificial”,  rama del aprendizaje profundo que descompone las imágenes, igual que el PNL las oraciones, párrafos y documentos, para analizarlos, reconocerlos y entregar un resultado, que, en el caso de las imágenes, es reconocer su contenido.

Para mejorar las prestaciones de la inteligencia artificial a los dos tipos de reconocimiento, textos e imágenes, se puede añadir un sensor que amplíe su origen, ya no solo de archivos de texto e imágenes, sino, por ejemplo directamente de cámaras fotográficas o micrófonos, algo aparentemente de poca importancia, pero que para los efectos de la influencia de la inteligencia artificial en la cotidianidad humana es fundamental: recibir información en tiempo real del medio ambiente de parte de cualquier sensor como, además de cámaras fotográficas o micrófonos, termómetro, altímetro, sensores de multitud de eventos como movimiento, luz, sonido, peso.  Existen miles de diferentes tipos de sensores.  La inclusión de sensores, si se quiere verlo así, capacita a la inteligencia artificial para “sentir”, en el sentido de recibir estímulos o información.

El siguiente paso es entregarle otra capacidad que es la de actuar.  Los “actuadores” son una especie de interruptores que le posibilitan hacer que algo en el ámbito físico suceda.  Por ejemplo que se encienda la luz.  Así, un sensor recibe la luz de ambiente, la IA analiza la información del sensor y junto con otra información, como la hora, decide habilitar el paso de la corriente eléctrica en un hilo eléctrico, con lo que se enciende la luz de una avenida.

La inteligencia artificial de agencia o agéntica

La IA agéntica es aquella capaz de actuar con autonomía.  Es decir que puede dejar de lado la supervisión humana.

Todo lo señalado en párrafos anteriores se integra en esta forma de inteligencia artificial recibiendo información por medio de los sensores, procesándola con la inteligencia artificial y ejecutando, con los actuadores, alguna reacción en función del análisis.

Se denomina agéntica debido a que una IA recibe la orden del usuario y en adelante actúa como coordinador, entregando diversas funciones y responsabilidades a otras IA que actúan como agentes que cumplen acciones específicas e informando de ello a la IA coordinadora.

La característica fundamental es que estos agentes realizan las actividades que se les asigna de forma autónoma, sin que la presencia humana sea requerida, sin control humano, lo que le brinda un potencial gigantesco, que, de hecho, debe llamar a la reflexión  a la humanidad.

La  autonomía en los ámbitos militares

Como dijimos, la IA es utilizada en el campo militar desde que apareció.  Cabe analizar sus alcances.

El uso más básico es el que cualquier persona en el mundo tiene acceso, es decir, la consulta bibliográfica sobre temas de este ámbito.  La integración de sensores, como el GPS, abren la posibilidad de utilizar información en combate, o reconocimiento con la denominada “realidad aumentada”. Un nivel más avanzado se ejemplifica con la puesta en ejecución de los sistemas de radar que detectan aviones intrusos y, guiados por IA, pueden atacarlos disparando misiles.

El grado de autonomía

En el ámbito militar el grado de autonomía es la capacidad que tiene, o se le entrega, a una unidad o sistema o individuo de realizar una actividad y tomar decisiones sin depender de una línea de mando.

Con la autonomía los militares pretenden resolver el problema de la reacción ante situaciones imprevistas, entregando al soldado la decisión de cómo proceder.  Luego de recibir la disposición de qué hacer, es decir, definido el objetivo, el subordinado decide cómo lo hace. 

La OTAN y el ejército norteamericano tiene seis niveles de autonomía aplicables al ámbito tecnológico, específicamente al uso de la Inteligencia Artificial:

  1. El grado 0 corresponde al total control humano en el uso de la tecnología.  Ejemplificando con la aviación, es el manejo total del avión por parte del piloto, desde los preparativos como revisión del nivel de combustible, estado de los motores, alas, hasta el aterrizaje.  Es la situación conocida por todos.
  2. Este grado admite que una herramienta tecnológica tome control parcial de alguna parte, no fundamental, de la operación.  Un sistema tecnológico corrige los flaps para estabilizar el avión afectado por las corrientes de aire.
  3.  El grado dos de autonomía, es una autonomía parcial (Human-in-the-loop) el sistema tecnológico controla, pero el humano decide cuando retomar el control y mantiene la decisión en situaciones críticas. En este caso -grado 2- y el grado uno el humano maneja la tecnología.  Es el caso del piloto automático de un avión que controla toda la nave e informa de todo al piloto, quien decide cuando retomar el control total.
  4. El tercer grado de autonomía entregada a la tecnología es condicionada al cumplimiento de ciertas situaciones que permitan el control total por parte del sistema tecnológico, pero que en caso de que esas situaciones cambien, el control pase al humano.  Es el piloto automático que incluso podría despegar y aterrizar en condiciones normales, pero entrega el mando al piloto, por ejemplo, en caso de tormenta.
  5. Grado 4, alta autonomía (Human-on-the-loop) que permite al sistema tecnológico completar misiones que incluyan situaciones inesperadas resueltas por el sistema.  Siendo el humano un supervisor, generalmente en forma remota, que puede abortar la misión  o tomar correctivos, en casos extremos. En los grados 3 y 4 el humano supervisa la acción de la tecnología. El avión de combate es controlado por el sistema y destruye, sin previa consulta, a los misiles que le atacan.
  6. El grado cinco de autonomía es total (Human-out-of-the-loop).  El sistema tecnológico controla todo y ejecuta la misión sin supervisión humana de ningún tipo.  El mando militar establece la directiva con sus condiciones y particularidades.  En este grado el humano espera el resultado de la misión.  El avión del ejemplo no tiene piloto, no hace falta, su sistema recibe la directiva de destruir los depósitos de combustible del ejército enemigo en un radio de 50 Km., incluyendo a los soldados enemigos que se encuentren en la zona.  El sistema decide lo demás, cuándo hacerlo, con qué armas, mecanismo de reabastecimiento, altura de vuelo, acción frente a los soldados enemigos, …

Desde el punto de vista estrictamente tecnológico los ejércitos más avanzados estarían en capacidad de utilizar tecnología con grado 5, sin embargo, no se conoce que lo hayan realizado por restricciones políticas, debido a las consecuencias que podrían acarrear que esto se haga público.  Además, existe la polémica, absurda, sobre la responsabilidad de un ataque grado 5, ya que se intenta difuminar la responsabilidad entre quien diseñó el sistema inteligente y el comandante de la misión, pretendiendo eliminar o reducir las responsabilidades de este último.  Por ello es que se conoce de la aplicación de un grado 4+, que acercaría mucho a la autonomía del grado 5, sin llegar a él, mediante la aplicación de ciertas restricciones en la ejecución de la misión como la certeza en el 100% de que se ha identificado al enemigo o delimitar áreas de operación.

Se conoce que el ejército de Israel utilizó la Inteligencia Artificial en los grados 3 y 4 en la reciente invasión a Gaza y en la protección de su territorio ante el ataque Iraní y de los Huties.

La expresión más mortífera de las armas dirigidas por inteligencia artificial grado 5 son los LAWS, Sistemas de Armas Autónomas Letales, que incluyen a robots, que, como su nombre lo indica, puede matar al enemigo humano.  Existe propuestas presentadas ante las ONU que intentan prohibir este tipo de armas.

El grave problema de los LAWS es la falta de certeza, por parte de los mandos militares, sobre el resultado final.  Como dijimos, solo les toca “esperar” el resultado.  A este problema se añade que la autonomía está en desarrollo lo que conlleva la posibilidad de una alta probabilidad de generar daños colaterales más allá de lo aceptable por parte de los militares, complicándose más cuando se trata de vidas humanas que es el principal de los cuestionamientos ya que, aunque sean vidas de enemigos, tienen derechos.  Mas complicado todavía cuando el enemigo no puede ser diferenciado totalmente del integrante del  ejército propio.  Pudiendo las LAWS acabar con la vida de sus propios soldados.

Se considera que las LAWS pueden generar verdaderos exterminios humanos en razón de órdenes incorrectas y de la falta de consciencia y sentimientos humanos.  Las LAWS con su ausencia de empatía y piedad terminarán por quitar la vida al enemigo, incluso sin necesidad.  Por otro lado, tampoco tienen sentimientos de odio o venganza, propios del ser humano, que ha llevado incluso a genocidios, como en Gaza.  Lo cual es expuesto a favor de las LAWS.

En todo caso, al parecer, serían las acciones defensivas frente a ataques de ejércitos enemigos la participación de las LAWS en el campo de batalla.

Comparte este artículo
No hay comentarios