¿Podría usarse el aprendizaje profundo para ganar una guerra nuclear?

Lo dudo enormemente …

Deep Learning depende de tener un conjunto de entrenamiento .

Eso significa tener una gran colección de “datos” donde hay dos (o tres) resultados:

  • Guerra nuclear ganada
  • Guerra nuclear perdida
  • Y tal vez: retroceso de la guerra nuclear

Solo tenemos un “récord” para ganar (Segunda Guerra Mundial) y quizás dos para dar marcha atrás: Crisis de Missle cubana y Guerra de 1973.

Este es un ejemplo sorprendente de lo difícil, lento y costoso que es construir un conjunto de entrenamiento.

Uno o tres (?) Registros son realmente muy pocos para hacer un buen aprendizaje automático, y mucho menos para el aprendizaje profundo. Además, ¿qué campos de datos pondría en estos registros? Dado que estos conflictos ocurren durante el período de 70 años y han cambiado tanto que cualquier dato que pueda atribuir a cada registro estaría muy “muy lejos”. Ej. Mega tonelaje de armas, ubicación geográfica, tamaño de las fuerzas armadas, etc.

Y al final, ( quizás ) solo tendría un “modelo” (y uno pobre en eso). Como no hay datos retenidos para “probar” o “validar” el modelo, no tendrá confianza en él.

Este es un ejemplo principal de lo que dijo George Box: “ Todos los modelos están equivocados, pero algunos son útiles. “En este caso, ni siquiera es útil.

Este es un ejemplo de la herramienta incorrecta para el trabajo.

¡El aprendizaje profundo no es mágico (suficiente) para crear algo de la nada!

En primer lugar, el aprendizaje profundo no es nuevo. Es bueno que las Redes Neuronales Artificiales populares en los años 80 y 90 hayan sido renombradas y hechas eficientes con la ayuda de GPU, etc. Gran parte de la fanfarria es casi cómica.

En segundo lugar, un paradigma de aprendizaje automático descubre un espacio de solución dentro del espacio de características que se proporciona en función del espacio de parámetros que se le proporciona. La palabra operativa es “descubre”, NO inventa. En otras palabras, cualquier algoritmo de aprendizaje automático, incluido el aprendizaje profundo, no puede encontrar una solución si no existe una para empezar. La IA no es un hechizo mágico que pueda conjurar una solución que nunca antes existió de la nada.

Esta pregunta recuerda a todos los que han visto la película de 1983 Juegos de guerra de la escena hacia el final de la película donde la inteligencia artificial se está volviendo a entrenar.

Detalles aburridos:

Deep Learning o cualquier forma de aprendizaje ejecuta una búsqueda exhaustiva de optimización en un gran espacio de datos para encontrar un espacio de solución. Eso es lo que hace el aprendizaje.

Diferentes paradigmas de aprendizaje pueden lograr diferentes resultados en términos de velocidad y precisión, requisitos de datos de entrenamiento, estabilidad del enfoque de aprendizaje, flexibilidad a los nuevos datos, etc.

Pero independientemente de la gama de paradigmas de aprendizaje y la elección entre estos, lo que permanece sin cambios es que ninguna inteligencia puede lograr una solución si no existe ninguna para empezar.

En otras palabras, AI descubre una solución dentro del espacio de características que le brindamos, utilizando los parámetros que establecemos.

Teoría de juego:

Esta pregunta es realmente sobre el aprendizaje profundo aplicado a la teoría de juegos. El uso de computadoras para derrotar a los grandes maestros humanos en Ajedrez ya se ha logrado. Por lo tanto, es comprensible que uno piense que se podría aplicar un esquema similar a la guerra nuclear.

El problema es que existe muy poca o ninguna información sobre la guerra nuclear. A diferencia del ajedrez, donde se proporcionaron los algoritmos diez de miles de movimientos y contra-movimientos reales de jugadores humanos. No hay datos sobre el uso de armas nucleares.

Por ejemplo: ¿Qué pasaría si la OTAN usara un arma nuclear de bajo rendimiento de unos pocos kilotones contra ISIS? ¿Reaccionaría Rusia y, de ser así, cómo? ¿Consideraría Rusia que la OTAN está utilizando el enfoque Salami, en el que esta arma nuclear de bajo rendimiento es simplemente la primera de una serie de armas nucleares que crecerá en uso lenta pero seguramente? ¿Rusia se adelantaría o utilizaría una postura de esperar y observar?

Nadie tiene la primera pista de lo que sucedería y no hay forma de entrenar un algoritmo de aprendizaje profundo para esto.

Conclusión:

Nadie ha visto el invierno nuclear y nadie sabe cómo reaccionará la gente ante él. Los humanos son un grupo muy impredecible y, como tal, actualmente es inconcebible simular datos de reacción de acción humana para la guerra nuclear y, por lo tanto, entrenar efectivamente una simulación de aprendizaje profundo de la guerra nuclear.

El aprendizaje profundo requiere un gran conjunto de datos. Dado que tenemos cero datos sobre la Guerra Nuclear, y los datos que tenemos de otras guerras han sido utilizados de forma limitada por los avances tecnológicos, creo que no.