¿Es la IA que puede vencer a un piloto humano en una simulación de vuelo un paso significativo hacia algo como Skynet?

El artículo fuente en el que se basa la pieza de Gizmodo (Más allá de los videojuegos: Nueva inteligencia artificial supera a los expertos tácticos en la simulación de combate) es bastante interesante y vale la pena leerlo por sus propios méritos.

Fui uno de los primeros graduados de la “Escuela de entrenamiento de combate de tripulación aérea” creada por el Comando de transporte aéreo militar como equivalente a la Escuela de armas de combate (ahora “Escuela de armas”), y que finalmente se incluyó en el programa WS. Aprendí maniobras y tácticas de combate aéreo desde la perspectiva de un objetivo, no de un luchador. Entonces, respeto los principios de tales compromisos y aprendí a usar la habilidad y la astucia para evitarlos en la mayor medida posible.

Desde mi perspectiva limitada, el desarrollo de IA descrito en estos nuevos artículos no es del todo sorprendente. Simplemente parece ser más municiones para la proposición de que, en la guerra aérea moderna, el avión que ve a su enemigo primero puede (y debería) disparar primero. Una lectura detallada del artículo de la Universidad de Cincinnati sugiere que ALPHA está aprovechando sus puntos fuertes, a saber, el cálculo de las probabilidades y geometrías de las peleas de perros. Muchos observadores de la automatización de la aviación actual han comentado anteriormente que el combate aire-aire en sí ya se ha alejado tanto de los enfrentamientos de “cañones” cercanos que ganó el advenimiento de cazas no tripulados capaces de tomar muchas más fuerzas G que los pilotos humanos. No haga tanta diferencia como algunos podrían pensar; Es posible que nunca tengan la oportunidad de acercarse lo suficiente como para explotar esa ventaja.

El salto conceptual de los algoritmos autónomos de maniobras ofensivas a una IA vengativa en red es demasiado grande para mi cerebro confundido. Tan lejos como me lleva mi pensamiento es que ALPHA es solo otro buen ejemplo de por qué nadie debería construir algo que piense por sí mismo y pueda desplegar armas bajo su propia autoridad. Si no le damos a Skynet el gatillo, no se puede tirar de nosotros.

La Inteligencia Artificial Estrecha (ANI) ha sido bastante convincente por un tiempo, pero no estamos entregando al gobierno a aplicaciones de navegación o este tipo por un tiempo.

Eso es esencialmente lo que hace ALPHA. Tiene una omnisciencia absoluta en su estado y puede indicar el estado del oponente casi en tiempo real. Con suficiente fidelidad del sensor, no hay forma de que un humano burle o sobrevuele un vehículo así equipado.

Pero ANI no es Super Inteligencia Artificial (ASI). Esa es Skynet Puede resolver todos los lados del Cubo de Rubik al mismo tiempo, al instante. ALPHA solo se ocupa de un lado, aunque también al instante. Ciertamente existe la posibilidad de que uno de estos ANI se pueda programar para salir de su conjunto de habilidades, pero eso no va a suceder por accidente.

Este tipo de IA no es tan difícil.

Un poco de procesamiento de imágenes, cálculos muertos, un filtro de Kalman y algo de lógica difusa, supongo.

Muchos videojuegos tienen una IA compleja que desarrolla estrategias sofisticadas para agentes y enemigos de la APN. A menudo, en los juegos, estas estrategias óptimas necesitan ser obstaculizadas y ligeramente aleatorizadas para parecer plausibles.

Sería bastante fácil hacer las ametralladoras automáticas como se ve en la película Aliens. No hay nada técnicamente difícil al respecto y funcionaría incansablemente y sería mucho más rápido y preciso que cualquier humano. Pero eso no significa que debamos implementarlo.