Trumpito

Garbage in, garbage out

Los primeros programadores de IBM lo dejaron dicho para la posteridad. Mierda por dentro, mierda por fuera. O cómo la inteligencia artificial convierte una cagada humana de toda la vida en una masacre de 180 niñas en una escuela de Irán. Los primeros programadores de IBM ya conocían el percal del mundo que se nos venía encima.

Recordemos los hechos. El 28 de febrero de 2026, durante el primer día de la campaña de bombardeos sobre Irán, un misil Tomahawk (made in USA) impacta de lleno en la escuela primaria Shajareh Tayyebeh de Minab. Resultado: entre 165 y 180 niñas de entre 7 y 12 años muertas. El objetivo, según la base de datos de inteligencia, era “una instalación naval del IRGC”, pero esa “instalación” había dejado de serlo hace más de diez años. La escuela se separó de la base militar con muros, se convirtió en centro educativo civil y llevaba una década funcionando como tal. En la base de datos de Palantir Gotham, la IA que usan los generales del Pentágono, seguía apareciendo como objetivo militar. Datos viejos. Basura de 2013. Nadie la había actualizado desde la época de Obama.

En teoría, la IA no decide sola, no pulsa el botón, solo procesa los datos que le metieron. Garbage in, garbage out. Pero si los políticos y generales de turno, gente más vaga que racional, supervisa lo justo y se limita a darle el OK, porque el algoritmo es muy listo y lo sabe todo, puede ocurrir lo que les decía el legendario Alfredo Di Stefano a sus porteros: “Che, las pelotas que vayan dentro, déjelas, pero por favor, no te metas las que vayan fuera”.

Eso de las guerras preventivas, sobre el papel suena siempre genial. Pretendían ser ángeles tecnológicos: guerra quirúrgica, inteligencia aumentada, targeting preciso, “nunca más errores como en Irak y en Afganistán”. Iban a elevarse por encima del bien y del mal, por encima de la estupidez humana, con algoritmos y big data. Iban a ser razonables, modernos, eficientes. Pero en lugar de eso, ha ocurrido exactamente lo que decía el filósofo Blaise Pascal: «L’homme n’est ni ange ni bête, et le malheur veut que qui veut faire l’ange fait la bête». La mayor bestialidad que, en realidad, es la misma estupidez de siempre,- mezcla explosiva de pereza, incompetencia y exceso de confianza —, solo que ahora va turboalimentada por Palantir Gotham. La cagada humana clásica se ha convertido en cagada aumentada. Mierda por dentro (datos viejos), mierda por fuera (168 niñas muertas).

Sin embargo, aquí es donde la cosa se pone política y merece párrafo aparte, porque no estamos hablando de un simple fallo técnico. Esta no fue una operación de respuesta a un ataque inminente. Esta es una guerra preventiva decidida y ejecutada bajo la doctrina Trump 2.0: “golpea primero, piensa después”. Si el instrumento elegido para golpear primero es, precisamente, Palantir Gotham, la misma IA que fusiona en tiempo real miles de fuentes de inteligencia, prioriza objetivos y sugiere strikes masivos, entonces tenemos un problema. Si la decisión estratégica de lanzar esta campaña preventiva —y la selección concreta de más de mil objetivos en las primeras horas— dependió en grado tan alto de una herramienta cuyo input estaba comprometido (o manipulado) desde hace una década, entonces el comandante en jefe que la autorizó tiene un problema de incapacidad manifiesta.

Donald Trump debe dimitir o ser cesado. No por “delegar en la IA” como si fuera un autómata malvado, sino por algo mucho más grave: por haber convertido la presidencia en un cargo de mero validador de algoritmos sin exigir que la cadena de mando humana hiciera su fucking job. Cuando el presidente de Estados Unidos permite que una guerra preventiva de esta magnitud se lance sobre la base de datos caducados que nadie se ha molestado en actualizar, ya no estamos ante el error de inteligencia, la clásica y repetida cagada política. Estamos ante una abdicación de responsabilidad presidencial. Eso es incapacidad manifiesta para ejercer el cargo.

Los mismos generales que ayer presumían de “revolución en asuntos militares” hoy hablan de “investigación en curso” y “datos desactualizados”. Claro. Como si el problema fuera un archivo mal etiquetado y no la arrogancia de creer que la tecnología nos iba a redimir de ser humanos. No falló la máquina, falló la supervisión humana. Falló la humildad. Falló la capacidad de admitir que, por muy sofisticado que sea un algoritmo, al final siempre hay un señor con galones que tiene que mirar la pantalla y decir, como en las pelis americanas de jolivú: “Un momento…”.

Lástima que en la vida real haya más bestias sedientas de sangre que ángeles.

(Belge)

(Visited 33 times, 33 visits today)

Deja un comentario