Bueno, pues ahora mismo no es más q ciencia ficción. Además me preocupa más lo que un humano le puede programar hacer a una máquina que lo que pudiera "pensar" la máquina por si misma si fuera posible.
De todos modos, para los q niegan rotundamente, os recuerdo que la programación de las inteligencias artificiales no es como la programación clásica. Aquí no se trata de dar un algoritmo a la máquina y que lo resuelva. Aquí literalmente hablamos de dar unas normas y que la máquina aprenda a usarlas para conseguir un objetivo. Simplificando mucho, una IA que juegue al ajedrez se programa enseñando los movimientos permitidos y el objetivo. La computadora va haciendo miles de partidas contra humanos o contra sí misma, y a la fuerza bruta (no en todos los casos... Ojo q ahí está la clave) aprende a jugar a un nivel más que aceptable. Porqué no puede generar una jugada q no se haya pensado antes? Es totalmente factible.
Si lo trasladamos a las aplicaciones militares, q tarde o temprano se hará, si no se está haciendo ya... La obsesión de los países desarrollados es evitar víctimas en el frente. De ahí el uso de drones, q luego podrán ser máquinas o robots, y más adelante aún, robots alimentados por inteligencia artificial (así no hace falta q haya una persona por máquina)... Q decisiones podrán tomar? Cierto q siempre dentro de un límite, però el límite se debe establecer muy bien. Además... No todos los q tendrán acceso a esas tecnologías en el futuro tendrán la misma ética y creencias.
Bueno, ya se verá en, pongamos, 30 años, o 50... O...