Inteligencia artificial
Estados Unidos
Anthropic
Claude
Palantir
Irán
Venezuela
Nicolás Maduro
Migrantes
Migración
ICE
Vigilancia
Armas
Guerra
A finales de febrero, Anthropic, la empresa detrás del modelo de inteligencia artificial Claude, le dijo no al Pentágono: se negó a que su tecnología se usara en armas letales autónomas o vigilancia masiva de ciudadanos. Dos días después, Estados Unidos e Israel bombardearon a Irán. La noticia de Anthropic quedó eclipsada por la guerra, pero es parte de lo mismo, porque la inteligencia artificial ya se está utilizando como arma. Estados Unidos la usó primero en su operación militar en Venezuela, y esta misma tecnología lleva años aplicándose dentro del país contra migrantes y extranjeros. En este episodio conversamos con la autora e investigadora Marta Peirano, una de las voces esenciales sobre los vínculos entre tecnología y poder, para entender qué implica vivir en un mundo donde la inteligencia artificial puede decidir contra quién se ejerce la violencia, y qué significa eso para quienes vivimos en América Latina.
Créditos:
-
Producción
Eliezer Budasoff -
Edición
Equipo de El hilo -
Verificación de datos
Bruno Scelza -
Producción digital
Samantha Proaño, Franklin Villavicencio, Diego Corzo -
Diseño de sonido y mezcla
Elías González -
Música
Elías González -
Tema musical
Pauchi Sasaki -
Fotografía
Getty Images / Kristian Buus
Etiquetas:
Transcripciones:
Transcripción:
Eliezer: Bienvenidos a El hilo, un podcast de Radio Ambulante Studios. Soy Eliezer Budasoff.
Dos días antes del primer bombardeo contra Irán, el director ejecutivo de Anthropic, la empresa de inteligencia artificial más avanzada del mundo, dijo esto: que ellos no podían dejar que el gobierno de Estados Unidos usara su modelo para alimentar armas letales autónomas ni para la vigilancia masiva de los ciudadanos.
Esta noticia, la de una pelea entre una compañía y el Pentágono por el uso de la tecnología para vigilar y destruir, fue eclipsada por una guerra donde se está utilizando la inteligencia artificial para vigilar y destruir.
Pero no es la primera vez que se usa de esta forma: Estados Unidos ya utilizó un modelo de IA para su operación militar en Venezuela. “Fue una operación perfecta”, dijo en ese momento Donald Trump, porque no hubo ninguna baja estadounidense. En la operación murieron más de 80 personas entre militares venezolanos, agentes cubanos y civiles, pero eso no parece relevante para los cálculos del Pentágono.
Si el uso de la inteligencia artificial como arma de guerra y de control ya de por sí puede llenar de miedo a cualquiera, los latinoamericanos tenemos más razones para temer. Porque nuestras vidas valen menos, en términos económicos y políticos, para la potencia militar que está trabajando en eso.
La plataforma que ahora permite hacer una vigilancia masiva a los estadounidenses, se utiliza desde hace años contra migrantes y extranjeros que viven en ese país. Eso es algo que cuenta la autora e investigadora Marta Peirano en un libro que publicó en 2019, El enemigo conoce el sistema.
El trabajo de Marta Peirano se enfoca principalmente en el uso de la tecnología para vigilar, controlar, manipular y destruir comunidades, y se ha vuelto esencial para entender cómo opera el poder en el mundo actual. En este episodio hablamos con ella para tratar de responder qué significa el uso de la IA como un arma. Para los ciudadanos en general, y para los latinoamericanos en particular.
Es 27 de marzo de 2026.
Hacemos una pausa y volvemos con la entrevista.
Marta, me gustaría empezar con una noticia que se conoció hace un mes, hace casi exactamente un mes, a finales de febrero, cuando la empresa Anthropic, que tiene uno de los modelos de inteligencia artificial más avanzados, salió a decir que no podía renovar su contrato millonario con el Pentágono porque el gobierno no quería aceptar dos condiciones: uno, que su modelo no fuera utilizado para armas letales autónomas y, dos, que no lo utilizaran tampoco para hacer vigilancia masiva a los ciudadanos estadounidenses. La noticia fue para muchos, yo me incluyo, como… ¿Qué? ¿De qué estamos hablando? ¿Armas letales autónomas? Entonces, quería pedirte primero si puedes contarnos lo esencial de esta noticia y es: ¿Qué es la empresa Anthropic y desde cuándo está trabajando con el gobierno de Estados Unidos en aplicaciones militares? O sea, ¿y qué tan avanzado está esto? Como para que ya estemos hablando de armas letales autónomas.
Marta Peirano: Pues Anthropic es una empresa un poco especial porque es parte de la primera generación de ingenieros que empezaron a trabajar después de que se inventaran los Transformers, que son la T de GPT.
Eliezer: Los transformers son la base de los grandes modelos de lenguaje que hoy conocemos. De forma muy simple, son la arquitectura que define cómo estos modelos procesan la información. Es como el plano de un motor: no es el motor en sí, pero es el diseño que determina cómo funciona. Esta arquitectura fue diseñada por un grupo de investigadores que trabajaban en Google y presentada en 2017.
Marta: Y entonces de esa primera generación de ingenieros que van a Google a hacer modelos de inteligencia artificial un puñado acaban montando una empresa que se llama OpenAI, que se crea precisamente con la idea de que Google es una empresa demasiado ambiciosa y demasiado vinculada al Departamento de Defensa como para dejar que sean ellos los que lideren la carrera de la inteligencia artificial, porque es demasiado peligroso. Entonces, OpenAI es una fundación que se crea con la idea de que si alguien tiene que montarlo, es mejor que lo monte gente que piensa desde el principio en la seguridad.
Eliezer: Dentro de este grupo estaba el investigador y emprendedor Darío Amodei. Había otros nombres importantes también, pero lo mencionamos a él porque tiene un papel central en esta historia.
Marta: La cuestión es que Darío es parte de esta primera remesa de ingenieros y muy rápidamente, al muy poco tiempo decide marcharse y montar su propia empresa porque él piensa que en OpenAI tampoco están tomando en serio los criterios de seguridad y de bienestar para todo el mundo que él considera que son apropiados. Y entonces junto con otro grupo de huidos de OpenAI, monta Anthropic. Y entonces Anthropic es una empresa muy especial, porque ellos querían demostrar que, sin comprometer estos principios y estos valores de bienestar, de protección y de seguridad, se podía hacer un modelo de inteligencia artificial competente. Y lo han demostrado hasta tal punto que se han convertido en la mejor empresa del mercado. Es decir, Claude, que es su modelo de inteligencia artificial está considerado el mejor modelo de inteligencia artificial que existe ahora mismo, al menos en el mundo occidental. Por este y otros motivos, el gobierno de los Estados Unidos, cuando todavía era la administración Biden en 2025, convoca a las empresas de inteligencia artificial para desarrollar un modelo que opere con los Sistemas del Departamento de Defensa. Como te puedes imaginar, tienen que tener unas características muy especiales para ser contratista del Departamento de Defensa y unos permisos muy especiales para poder interactuar con datos que son ya no solo privados y delicados, sino que son de espionaje literalmente. Es decir, datos, los datos más privados que hay para un gobierno. Y entonces el que se queda con ese contrato es Anthropic. Y en ese contrato, como en todos los contratos, las dos partes estipulan una serie de premisas. Y una de las premisas de Anthropic era: este modelo no va a ser utilizado para estas dos actividades que tú has mencionado. Ni para hacer vigilancia masiva de ciudadanos estadounidenses ni para activar o ejecutar armas letales autónomas. Ocurre que en el último año el Departamento de Defensa de los Estados Unidos ha cambiado de nombre, ahora se llama Departamento de Guerra y las personas que lo dirigen han empezado a utilizar la inteligencia artificial como una herramienta más de su arsenal. Y se han encontrado con restricciones que tienen que ver con el contrato en este caso, y han querido corregirlas. Y Anthropic se ha negado a diferencia de otras empresas del mismo sector, ha dicho que no quería corregir o que no quería alterar los términos originales. Y entonces ha habido un pulso por el cual el gobierno de los Estados Unidos ha propuesto dos escenarios posibles por los cuales le dicen a Anthropic: o bien vamos a utilizar una ley de la Guerra Fría que obliga en tiempo de guerra a todas las empresas estadounidenses a trabajar para el gobierno. Un poco como hace el gobierno chino con las empresas tecnológicas chinas, que están todas al servicio del partido. O bien a declararlos un peligro para la cadena de suministro, que es una figura muy rara dentro de lo que son los contratos del gobierno estadounidense y que generalmente están restringidas a empresas que tienen vínculos con estados antagonistas, con estados enemigos. La prueba es que solamente hay diez empresas que hayan sido catalogadas como peligros para la cadena de suministro y son todas chinas, menos una que es rusa. O sea es una etiqueta verdaderamente muy extrema. Y lo que quiere decir esa etiqueta es que esta empresa, por sus alianzas estatales o por sus actividades históricas, es considerada o bien demasiado vulnerable o bien demasiado peligrosa para formar parte de la infraestructura del gobierno estadounidense. Esta sería la primera vez que una empresa estadounidense es catalogada como un peligro para la cadena de suministro. Y claro, cuando amenazan a Anthropic con estos dos escenarios, en realidad podemos decir que la están extorsionando porque son dos escenarios, literalmente opuestos. O bien eres tan importante para nosotros y tan necesaria para el gobierno estadounidense que te vamos a obligar a abrir tus tripas y dejarnos entrar hasta el fondo de tu de tu armario. O bien eres tan peligrosa para el gobierno estadounidense que no puedes tocar ni un cable dentro de esta casa. O sea, son dos escenarios opuestos: o te destierro o te integro al 100%.
Archivo de audio, Presentadora, DW: El presidente Donald Trump ordenó a todas las agencias federales suspender de inmediato cualquier uso de la tecnología de Anthropic. El secretario de Defensa anunció por su parte, que designará esta empresa como un riesgo para la cadena de suministro y la seguridad nacional.
Marta: Parece que en la última semana se ha suavizado un poco porque efectivamente el gobierno de los Estados Unidos no puede legalmente prohibir a todas las empresas estadounidenses hacer negocios con otra empresa estadounidense. Pero pues ahora hay una serie de demandas por parte de Anthropic contra el gobierno en las que se está defendiendo de ser catalogada como peligro para la cadena de suministro.
Eliezer: Marta me explica que no se sabe, al menos con información verificable, por qué es tan importante ahora para el gobierno de Estados Unidos quitar estas restricciones del contrato con Anthropic, pero hay indicios. Lo que sí se sabe, me dijo, es que, en los meses que ha durado el contrato, las herramientas de inteligencia artificial desarrolladas por la compañía parecen haberse vuelto muy importantes para algunas actividades del Departamento de Guerra.
Marta: La otra cosa que sabemos es que el propio gobierno ha dicho que ha utilizado Claude en la operación de secuestro de Nicolás Maduro y también ha dicho que ha utilizado Claude en los ataques en Irán. Entonces, sabiendo que en al menos uno de esos ataques ha habido pues una selección de objetivos muy veloz, un análisis de datos en tiempo real, muy eficiente y sin embargo ha sido una operación que no ha requerido personal extra, pues podemos inferir que a lo mejor algunas de esas habilidades ya se están utilizando, pero no podemos saberlo.
Eliezer: Esto que dices me parece increíble, ¿no? Porque en realidad el comunicado de Anthropic diciendo: No podemos aceptar la oferta del Pentágono porque no queremos ceder a estas dos condiciones que estaban en nuestro contrato. Eso ocurre el 26 de febrero, dos días después, el 28 de febrero, empieza el primer bombardeo contra Irán. Un par de semanas antes de lo de Irán, el Wall Street Journal publica que el Pentágono había utilizado el modelo Claude en la operación militar en Venezuela. Y es inevitable pensar que el gobierno lo quería usar también en la guerra contra Irán. ¿Se sabe cómo se puede llegar a utilizar? O perdón, ¿cómo se utilizó tal vez en Venezuela? Y ¿hay otros ejemplos recientes de que se haya utilizado la inteligencia artificial para operaciones militares o de seguridad interna?
Marta: Esto es lo que sabemos: sabemos que el gobierno de Estados Unidos ha estado trabajando sobre una plataforma de una empresa que se llama Palantir.
Eliezer: El negocio de Palantir es, básicamente, el manejo y el análisis de grandes volúmenes de datos para gobiernos y corporaciones. La compañía no se dedica a extraer datos ni a venderlos, sino que utiliza bases de datos que ya existen: de salud, de tráfico, de inmigración, de redes sociales, de operaciones bancarias y los unifica en una sola interfaz. Para que todos esos datos, aunque vengan de fuentes completamente distintas, puedan buscarse en un mismo lugar.
Marta: Palantir, en el último año se ha convertido un poco en el sistema operativo de las operaciones de este gobierno, muy especialmente las que se refieren a ICE y a Border Patrol y a las que han ejecutado fuera de Estados Unidos, como el secuestro de Maduro y los ataques en Irán.
Eliezer: Y acá es donde entra Anthropic. En noviembre de 2024, Palantir anunció una alianza con Anthropic y los Servicios Web de Amazon para llevar sus modelos de inteligencia artificial a agencias de defensa e inteligencia del gobierno de Estados Unidos. Es decir, Claude corriendo dentro de esa plataforma para uso gubernamental clasificado. Y para entender por qué esto importa, hay que saber cómo empezó Palantir.
Marta: Entonces Palantir es una empresa que nace literalmente a raíz de el ataque a las Torres Gemelas. O sea, es un, es una empresa post 9/11 y en principio se empieza a generar infraestructura para combatir el terrorismo, el terrorismo islámico y luego empieza a venderle esa infraestructura a sistemas que están acostumbrados a generar muchos datos, pero no a digitalizarlos de forma ordenada para que sean compatibles entre ellos. Unos están en PDF, otros están en fotocopia, otros son grabaciones, otros no, otros son mapas, otros están en un archivo, otros están digitalizados por un formato y no en el otro, y entonces ellos lo que hacen es convertir todo eso en algo que se pueda buscar desde un solo buscador. El problema que tiene el gobierno de los Estados Unidos es que tiene mucha de esa información. O sea, el principal problema antes era esa información es incompatible, Palantir resuelve ese problema y una vez este problema está resuelto, el segundo problema que tiene es que tiene demasiada y entonces necesita una cantidad disparatada de analistas para encontrarle sentido a estas relaciones entre los distintos documentos. Y entonces esto hace que tomar decisiones en tiempo real, como por ejemplo si quieres secuestrar a un primer ministro de un país lejano, pues necesitas y tienes información de las de los semáforos, de las matrículas que se están moviendo, de los teléfonos que se están moviendo, de quién está pagando cosas, dónde ¿no? Sí, Imagínate que tienes toda esa información en un espacio de unas calles de una ciudad. Pues todo eso requiere una cantidad de proceso muy grande, muy alta. Y para hacerlo en tiempo real necesitas un montón de personas mirando eso y haciendo y sacando conclusiones. Lo que introduce un modelo de inteligencia artificial es la capacidad de analizar todos esos datos en tiempo real según van entrando. No necesitas un mes de analistas mirándolos para decir ha pasado por aquí o esta persona probablemente está viviendo en este sitio, sino que es un atajo que te permite construir sentido, es decir, hacer inteligencia a partir de datos que te están llegando de forma masiva en tiempo real. Eso es lo que ha aportado Claude a la plataforma de Palantir que utiliza el gobierno de los Estados Unidos. ¿Por qué sabemos que ha utilizado Claude para el secuestro de Maduro y que la ha utilizado en los ataques en Irán? Precisamente porque lo que ellos describen es un sistema de datos generados en tiempo real y un análisis de esos datos en tiempo real. Y la única manera de hacerlo es con un modelo de inteligencia artificial y el único que tienen es Claude.
Eliezer: Ya volvemos.
Estamos de vuelta en El hilo.
Ahora, hace siete años, ya en 2019, cuando publicaste tu libro El enemigo conoce el sistema. Ahí hablas de un reclamo de trabajadores de Microsoft Azure, que es uno de los grandes servicios de almacenamiento en la nube. Los trabajadores reclamaban para que la empresa dejara de ofrecer su servicio especial al gobierno porque lo estaba utilizando para separar familias en la frontera, ¿no? Pero también cuentas de, por ejemplo, cómo la tecnología desarrollada para detectar movimiento durante la guerra de Vietnam se recicló como sistema de vigilancia en la frontera con México. Y ya hablas también de la plataforma de Palantir para cruzar información, ¿no? Para que el gobierno pueda ser más eficiente para deportar migrantes. La primera pregunta que tengo respecto de esto es, ¿qué cosas fundamentales han cambiado en estos años, más allá de la eficiencia o la capacidad de procesar información de la tecnología?
Marta: Una cosa que no he dicho antes, que creo que es importante, es que sabemos que Palantir está siendo utilizado con Claude, con la inteligencia artificial de Anthropic, para cazar personas en Estados Unidos. De hecho, sabemos que tiene un programa o una aplicación dentro de su propia plataforma que se llama Elite, que les ayuda a generar mapas de calor para ir a hacer redadas en lugares donde el sistema piensa que hay una alta densidad de objetivos. Y cuando digo objetivos, quiero decir personas a las que podrían ser susceptibles de ser deportadas. Y entonces esta es la herramienta que ha generado estos escenarios que hemos visto en Minneapolis y en otros lugares de que entran en una casa y pillan todo lo que salga de esa casa, ¿no? Y entonces, esa herramienta la están utilizando en combinación con otra que es un sistema de reconocimiento facial. Es decir: capturan gente que sale de un lugar, donde ya, Palantir, equipado con Claude, les ha dicho, que a lo mejor hay muchos inmigrantes, por ejemplo una fábrica o por ejemplo determinados edificios donde el alquiler a lo mejor es más accesible y luego según los van deteniendo les ponen el movil en la cara y utilizan un sistema de reconocimiento facial para ver si están en sus listas. Entonces, sabemos que la están utilizando para cazar personas. Y también sabemos que algunas de esas personas eran ciudadanos estadounidenses. Es decir, que ya sabemos que el gobierno de Estados Unidos está utilizando Palantir y Anthropic y Claude, el modelo de Anthropic, para vigilar y perseguir a ciudadanos estadounidenses, aunque sea porque son como delfines que se cuelan en las redes de pesca masiva de inmigrantes. Ya, pero no están, No tienen la capacidad de discriminar. Si en esos lugares donde hacen esas redadas gigantes hay o no hay ciudadanos estadounidenses. Es más, sabemos que hay, sabemos que han deportado ciudadanos estadounidenses.
Archivo de audio, Presentador, La Opinión: ICE deportó a dos niñas ciudadanas estadounidenses. Sin embargo, un juez ha ordenado su regreso inmediato.
Marta: Entonces, primero lo primero es eso y lo segundo, toda tecnología que vulnera derechos en el extranjero vuelve a vulnerar derechos en el lugar de origen. Esto, de hecho, es tan un lugar común que tiene un nombre, es el efecto bumerán. Es un efecto bumerán que existe desde el colonialismo. Es decir, eh, todas las cosas, todas las vulneraciones de derechos que se dieron cuando se colonizaron espacios y se trataron allí a la gente como si fueran animales u objetos y se catalogaron casi como si fueran plantas. Eso inmediatamente después se repitió con ciudadanos locales. Generalmente, empieza siendo minorías. Esas minorías empiezan a convertirse en mayorías y al final todo vale. ¿Por qué? Porque el crimen no define a la víctima, define al perpetrador. Es decir que cuando tú utilizas herramientas que vulneran derechos en un lugar, el que te transformas eres tú, transforma tus valores el que está alineado con esa vulneración de derechos es el que los ejecuta, es el que utiliza esas herramientas y no la víctima. La víctima cambia, la víctima primero está en Vietnam o está en las Indias Orientales y después está en casa, porque una vez has terminado con las Indias Orientales, pues tienes un arma perfecta o una herramienta perfecta para librarte de la gente que no te gusta y que tienes en el jardín de los homeless, de los enfermos, de las prostitutas, de los homosexuales, de los opositores, de los activistas, de los vegetarianos Y así unos detrás de otros. Ha ocurrido siempre. Es un efecto bumerán. Entonces, pues ha ocurrido siempre que un gobierno que desarrolla ese tipo de herramientas acaba utilizándolos con sus propios ciudadanos. Es más, tenemos que pensar que la gran partida presupuestaria que anunció el gobierno hace un año ha beneficiado muy expresamente a ICE y a toda la Agencia de de Vigilancia de Frontera. Es decir, le han dado un presupuesto gigantesco para que abra centros de detención nuevos, gigantescos, un poco como el CECOT de El Salvador, pero en Estados dentro de Estados Unidos, y además que expanda su red de oficinas y de y de instalaciones en todo el país, lo cual es bastante interesante porque estamos hablando de una organización que en principio solamente trata con inmigrantes. Entonces, si Donald Trump ha prometido en campaña que va a deportar a 14 millones de personas y genera una infraestructura que lo permite, ¿qué va a pasar cuando haya ejecutado su plan? Es decir, está desarrollando infraestructura sólida para un plan que teóricamente es temporal. Hay que preguntarse por qué invierte tanto dinero en esa infraestructura y en esas herramientas, cuando, una vez haya deportado a esas 14 millones de personas, el problema estará resuelto. Parece una inversión muy importante para un problema relativamente temporal. Esto quiere responder a tu última pregunta, que es: ¿qué es lo que ha cambiado? Para mí han cambiado dos cosas. La dinámica no ha cambiado en absoluto. Esta dinámica de la industria tecnológica que se hibrida con el gobierno para hacer cosas que no debe, es la misma que denunció Edward Snowden en 2013. En 2013 descubrimos que los servicios gratuitos de mensajería de correo, de música, de almacenamiento que nos ofrecían tan generosamente las empresas tecnológicas eran parte de los largos tentáculos del Departamento de Defensa de los Estados Unidos y de su alianza con otros departamentos de inteligencia: Inglaterra, Australia, Nueva Zelanda, Canadá. Descubrimos eso, es decir, esa relación existe desde el principio. Lo que ha cambiado es que esa infraestructura ha crecido, ahora es mucho más grande. Es decir, si antes esos tentáculos estaban en nuestros bolsillos, ahora estos tentáculos están en nuestras ciudades. La otra cosa que ha cambiado es la inteligencia artificial, la inteligencia artificial permite que esa infraestructura funcione como un sistema de vigilancia total en tiempo real.
Eliezer: ¿Crees que el desarrollo de la IA para fines bélicos sí supone un cambio de paradigma? Un salto a otra fase. Algo que puede mover mucho el tablero del poder y de la eficiencia militar como… no sé, la creación de la bomba nuclear, o ¿es exagerado pensarlo así?
Marta: Cuántas veces hemos visto el secuestro de un presidente de un Estado que se resuelve literalmente en 60 minutos. Estamos viendo cómo en las últimas guerras, es decir, en los últimos centros de acción bélica, que vamos a decir que han sido en los últimos años Gaza y Ucrania, los dos se han convertido en laboratorios de nuevas tecnologías de guerra. Ese desarrollo que en Gaza ha estado ocurriendo durante mucho tiempo y hay de hecho un libro fantástico sobre este tema que se llama El Laboratorio palestino, que ha escrito un periodista australiano que se llama Anthony Lowenstein. Él hablaba precisamente de cómo Estados Unidos, a través de Israel, ha estado desarrollando tecnologías de vigilancia y tecnologías de asesinato en Gaza durante todos estos años, que luego han permeado hacia adentro, hacia Estados Unidos y también hacia Ucrania. Y en Ucrania, todas las grandes empresas tecnológicas han participado, muy especialmente Palantir, porque es un escenario de testeo fantástico para estas tecnologías. Entonces, la habilidad, una vez ya se ha creado esta infraestructura de captura y análisis de datos masivos en tiempo real, la habilidad de usar esos datos en tiempo real es insólita. O sea, durante todos estos años hemos estado hablando de la máquina de vigilancia de las Big Tech y del gobierno de Estados Unidos y de China. Pero esa máquina de la vigilancia lo que hacía era amontonar datos, amontonar datos. Y luego ha creado unos algoritmos que han ido utilizando parte de esos datos para sacar conclusiones en tiempo real y vendernos anuncios. Luego, más tarde vendernos propaganda, vendernos ideología política y vendernos una visión del mundo a cada uno en función de los intereses de cada plataforma o de sus clientes. Ahora lo que tenemos es una infraestructura de vigilancia masiva en tiempo real que puede actuar en tiempo real que puede entender en tiempo real, que está viendo el mundo en tiempo real. Esto hace cinco años no existía y yo sí creo que lo cambia todo.
Eliezer: Sobre esto que estás hablando, sobre esto mismo, tengo una pregunta, pero quiero empezar un paso antes y es sobre el uso de esta tecnología y cómo aceptamos y justificamos la inteligencia artificial como si fuera una fuente objetiva de información y por lo tanto incapaz de cometer errores de juicio como las personas. Por un lado, es muy impresionante ver a la gente aceptando ciegamente lo que dice Grok o ChatGPT. Grok como verificador de información, digamos, de uno de los mayores desinformadores de este planeta que es Elon Musk o la gente que le pide consejos médicos a ChatGPT y hace lo que ChatGPT le dice. Pero también ves justamente, digamos, ¿no? A Elon Musk y otros funcionarios acusando a Anthropic de querer hacer una inteligencia artificial woke, no, que sería supuestamente contrario a una inteligencia artificial neutral. A mí se me ocurre que al acusar de progresista a una inteligencia artificial están reconociendo el sesgo que puede tener, ¿no? Pero hay como una tendencia a pensar que es su juicio objetivo. Lo que quería saber es, ¿hay alguna forma? ¿Es esto posible de tener una inteligencia artificial neutral? Y sino, ¿cómo es posible que una inteligencia artificial sea racista? Por ejemplo.
Marta: La inteligencia artificial llega a nosotros con una ventaja y es que nos han entrenado durante 20 años para pensar que Google era neutral, es decir, el buscador de Google que ha sido nuestra puerta a Internet durante todos estos años es algo que la mayor parte de la gente piensa que está basado en un sistema jerárquico de popularidad, de eficiencia y de precisión, y no que es la principal fuente de ingresos de Google porque es su principal plataforma de publicidad. Es decir, el buscador de Google lo que te da es publicidad, te da una publicidad que se parece de hecho mucho a los anuncios clasificados que antes salían en el periodico. Es decir, todo lo que sale en Google en tu primera página está pagado y cuando aparece primero o más destacado o una cosa en lugar de otra, todo el mundo piensa que es porque es la mejor respuesta posible, porque es lo más cercano a una respuesta perfecta que Google te puede encontrar en Internet, cuando en realidad lo que hay es algo que ha pagado para estar ahí. Por ese mismo motivo la gente piensa que cuando busca algo en Amazon lo primero que le sale es exactamente lo que está buscando. Cuando en los últimos años hemos empezado a ver que no es así. ¿Por qué? Pues porque el sistema de subastas interior de Amazon, por el cual la gente que quiere vender un producto lo que hace es pagar para que su producto salga primero, se ha roto. Se ha roto porque ahora pides algo que existe y que se llama de tal manera y te aparece cualquier otra cosa parecida porque han pagado más y entra dentro de la misma categoría. Entonces, después de todos estos años pensando que estamos tratando con sistemas que lo que hacen es bucear en la información y conseguir la respuesta más parecida a la verdad que ha encontrado, pues no nos cuesta tanto pensar que un sistema que tiene en la cabeza todo lo que existe en Internet, te puede ofrecer lo más parecido a la verdad. Porque tenemos este concepto de que si me equivoco es porque me faltan datos, pues quien tiene todos los datos posibles no se puede equivocar. Partimos de la base de que es una tecnología que no tiene dueños, que no tiene objetivos, que no tiene principios, que simplemente flota como Dios, ¿no? Lo ve todo, lo procesa todo de una manera completamente limpia y favorece solo la verdad. No estamos en ese escenario en absoluto. Estamos ante una herramienta que, aún en el caso de que hubiera sido generada con el objetivo último de acercarse lo más posible a la verdad, está entrenada con nuestro pasado. Es decir, es una tecnología cuya magia es repetir lo que llevamos haciendo desde el principio de los registros de Internet. ¿Nosotros somos racistas? Yo diría que sí. Y entonces esa tecnología que ha crecido mirando todo lo que hemos hecho hasta ahora. Pues lo normal si su gran habilidad es repetir patrones. Es que repita los mismos patrones que ha aprendido y ha aprendido de nosotros. Y nuestros patrones son los que son: somos racistas, somos sexistas, somos misóginos, tenemos afición por contenidos escandalosos, tenemos sesgos, tenemos sesgos aprendidos y otros sesgos que tienen que ver con nuestras capacidades cognitivas y con nuestros puntos ciegos. Es decir, es un sistema de repetición de patrones que repite nuestros errores a escala. Por lo tanto, nunca va a ser una herramienta perfecta y desde luego nunca va a ser la herramienta que nos va a acercar a la verdad.
Eliezer: Hacemos una última pausa y volvemos.
Estamos de vuelta en El hilo.
Hace un ratito te preguntaba por la comparación entre el uso de la IA con fines militares y la bomba nuclear, justo porque escuché un experto que planteaba el conflicto que hay entre público y privado con esta tecnología, usando de ejemplo la bomba nuclear. Él decía: ¿a ustedes les gustaría que un desarrollo como la bomba atómica estuviera a cargo de empresas privadas y que tuviésemos que confiar en las buenas intenciones de los empresarios? Y claro, cuando uno lo piensa así, sobre todo teniendo como referencia cómo han actuado los empresarios tecnológicos en las últimas dos décadas, te da pavor, ¿no? Pero en el caso de Anthropic y el Pentágono, por ejemplo, es al revés. Es un privado poniéndole límites al Estado. Vivimos en una época en que la política ha perdido tantos escrúpulos que quería saber si ¿crees que todavía estamos a tiempo de algún tipo de límite legal o de regulación que verdaderamente sirva para algo? Frente a esto, o más bien tenemos que poner la esperanza en las decisiones éticas que tomen personas particulares, que hasta ahora es Dario Amodei, ¿no? Porque ChatGPT digo, la empresa OpenAI salió inmediatamente a acudir al llamado del Pentágono después de la pelea con Anthropic.
Marta: Para sorpresa de nadie. Vivimos claramente en una época insólita en la que antes hacía falta el poder económico y legal y la energía de un Estado, de un gobierno o de varios Estados para hacer algo tan grande como ir a la Luna o como construir una bomba atómica. Ahora estamos en un momento en el que un solo individuo con una sola empresa puede hacer todas esas cosas casi con la misma empresa, ¿no? Hacer una bomba atómica, ir a la Luna, irse a Marte, recoger a su novia, volver. Estamos en un momento muy extraño en el que la concentración de recursos es tan, tan, tan alta que una persona puede tomar esa decisión sin haber sido elegida democráticamente, ni haber sido votada por nadie, ni tener un parlamento que tenga que valorar sus decisiones antes de ser ejecutadas. Entonces es un momento muy especial, pero también es verdad que algunas de las personas que han sido votadas democráticamente están actuando de forma muy antidemocrática y muy irresponsable. En este momento, en esta pelea entre Anthropic y el gobierno de los Estados Unidos, estamos viendo casi una inversión de la fórmula habitual que es un gobierno poniéndole freno a una empresa. Ahora estamos viendo que una empresa le está poniendo freno a un gobierno. Es una situación muy interesante porque nos demuestra que no pueden actuar por su cuenta cada uno de ellos. El software de Anthropic, el modelo de inteligencia artificial de Anthropic, pero también el de ChatGPT o el de Google, no son como un helicóptero que te compras y puedes usar como te dé la gana. No son como un tanque que te compras y puedes llevarlo a donde quieras. Son servicios que funcionan desde una infraestructura de nube que generalmente no está dentro de las, dentro del garaje del Estado. Es decir, hay una independencia que es física, que es materialista, que hace que un gobierno como el de Estados Unidos no pueda decidir usar un modelo de inteligencia artificial para vigilar a sus propios ciudadanos o para matar gente de forma masiva sin que la empresa sea deliberadamente partícipe de esa misión. Esto es interesante porque lo que dice es que sí hay responsabilidad es que la empresa no puede decir: No, es que nosotros pues le vendimos la tecnología y nos lavamos las manos. Las empresas son corresponsables de todo lo que haga el gobierno con esos productos tecnológicos y esto yo creo que crea una situación que requiere un consenso. Requiere consenso entre los gobiernos y las empresas. ¿Qué pasa? Hay gobiernos donde eso no es un problema porque son gobiernos, regímenes autoritarios, donde todas las empresas trabajan para el partido, como por ejemplo en China y luego hay gobiernos donde sí es un problema porque a lo mejor unas empresas están alineadas con esta filosofía y otras no. Yo creo que hay ahí una oportunidad, hay una oportunidad improbable de que las empresas tecnológicas lleguen a un consenso entre ellas, de no participar de forma oportunista en la guerra de este gobierno contra sus propios ciudadanos y contra los de otros países. Creo que hay una oportunidad de rehumanizar esta situación. No digo que la vayan a aprovechar, no digo que yo tenga optimismo en ese sentido, pero digo que hay una oportunidad de que esa, esa corresponsabilidad redunde en beneficio del bien común y no en beneficio de siete oligarcas y un gobierno autoritario.
Eliezer: Todo lo que sale o leemos en la prensa más o menos serio sobre inteligencia artificial es todo abrumador y distópico, ¿no? Y como te decía, favorece un montón a los millonarios a cargo de estas empresas, porque significa que esta sensación de inminencia les da cheque en blanco para no frenar nunca su carrera, ¿no? Pero también el otro día escuchaba un periodista que decía: Hay muchas cosas para preocuparse con la inteligencia artificial, pero también podemos tener diferentes emociones respecto de esta tecnología. O sea, no solamente el miedo y la ira y la desesperación, dice: Es un momento fascinante. Y también hay noticias como no sé, un empresario que usa la IA para investigar una cura para el cáncer de su perra sin tener conocimientos de biotecnología, ¿no? Quería saber entonces, ¿cómo haces tú para mirar entre estos dos extremos? Porque además no tienes chances de tomar distancia, no como los que cubrimos otras cosas, es tu tema. Entonces es una consulta de autoayuda, si se quiere, para cerra, ¿cuáles son tus estrategias para no caer en trampas de pensamiento, ni el nihilismo absoluto ni en campañas de prensa? ¿Qué es lo que te ha funcionado para mirar de frente todo sin perder por completo el espíritu?
Marta: Bueno, lo primero que tengo que decir es que a mí a menudo me acusan de ser ludita y me hace mucha gracia porque yo he dedicado a la tecnología toda mi vida.
Eliezer: Los luditas fueron un movimiento obrero que surgió durante la Revolución Industrial, que tenían como forma de protesta la destrucción de telares y otras máquinas que se estaban usando para desaparecer sus oficios. Ludita se usa de manera simplista para referirse a quienes rechazan o desconfían de la tecnología moderna.
Marta: Es decir, yo desde pequeña he sido una aficionada a la tecnología. Mi padre era ingeniero. En mi casa siempre ha habido pasión por todo lo técnico y desde el principio de mi carrera yo me he dedicado a cubrir internet, a escribir sobre infraestructuras técnicas y de comunicaciones y es la cosa que más me interesa en este mundo. Es decir, siento que vivo en un mundo fascinante. Todos los días me despierto y sé que voy a descubrir cosas increíbles porque pasan cosas increíbles todos los días. Tengo la ventaja sobre a lo mejor gente que ha tenido otras pasiones en la vida que yo desde muy pronto estuve muy vinculada a la escena del software libre, al mundo de los hackers y entonces he sido testigo permanente de, de gente genial haciendo cosas increíbles con tecnologías que han sido diseñadas para beneficiar al máximo de gente posible. Entonces, mi relación con la tecnología no está contaminada del todo por lo que pienso de las plataformas digitales. Vivimos en un momento en el que las plataformas digitales ocupan tanto espacio en nuestras vidas que cuando hablamos de tecnología parece que estamos hablando solo de eso. La tecnología es un mundo mucho más grande. Antes, cuando hablábamos de tecnología solo hablábamos de Internet. Ahora cuando decimos Internet, en realidad queremos decir Instagram, Twitter y Google, y ahora todo es la IA. Ahora, cuando la gente dice me asusta la tecnología, lo que quiere decir es que los modelos de inteligencia artificial me dan miedo y entonces yo siento que tengo una relación mucho más rica con la tecnología de la que trasciende en mi trabajo, porque estoy viviendo en un momento en el que una de mis grandes obsesiones, que es el vínculo entre la tecnología y el poder, es decir, el uso de la tecnología para vigilar, controlar, manipular y destruir comunidades está siendo está escalando de forma acelerada y está ocurriendo delante de nuestras narices. Entonces, yo vivo con enorme excitación el mundo de la inteligencia artificial. Es decir, una de mis frases favoritas mías de los últimos años es que los modelos de inteligencia artificial son demasiado importantes para dejarlos en manos de los siete magníficos de las grandes empresas tecnológicas estadounidenses. Creo que es un desarrollo que empezó en las universidades y debería seguir en las universidades. Pienso que tenemos la posibilidad perfectamente al alcance de, desde luego de Europa, pero también del resto del mundo de construir inteligencia artificial, de la misma manera que construimos Internet, es decir, como un proyecto colectivo, descentralizado diseñado para ser resiliente, para ser lo más neutro posible, para beneficiar al máximo número de personas posibles. Y nos salió bien. Internet funciona muy bien, Internet ha cambiado nuestras vidas para bien. Lamentablemente está siendo un desarrollo que ha sido secuestrado por un grupo de personas y lo han convertido en una carrera armamentística que depende de una cantidad imposible de recursos. Entonces, cuando yo escribo de forma muy negativa sobre este tipo de desarrollo, es porque viniendo del software libre y creyendo firmemente en el poder de la tecnología para cambiar nuestras vidas para mejor, sé que ese no es el camino apropiado. ¿Cómo vivo yo este momento? Pues lo vivo sabiendo que el problema que tenemos no es técnico. Tenemos soluciones técnicas para este problema. Hay maneras de hacerlo bien y mucha gente conoce esas maneras y tenemos toda la infraestructura que necesitamos para hacerlo bien. Pero hay una ceguera que está contaminada por el hecho de que los mismos que están al volante de esas tecnologías están al volante de los medios de comunicación. Es decir, esa concentración de poder de extracción y análisis de datos y de control masivo de esa información también ha permeado al mundo de la de los medios de comunicación. Es decir, estamos en un ecosistema mediático donde nuestra visión del mundo está diseñada por las mismas personas que nos quieren controlar. Y entonces, pues es un momento muy difícil para ser optimista. Pero yo lo soy, yo soy optimista porque sé que nuestro problema no es un problema técnico, no es que tengamos que inventar una tecnología nueva para solucionar esta concentración de poder, esta concentración de medios y este control masivo, no necesitamos una nueva tecnología. Tenemos toda la tecnología y todo el conocimiento que necesitamos para resolver eso. Lo que necesitamos es una generación política que esté a la altura de las circunstancias.
Eliezer: Marta, muchísimas gracias por hacerte un tiempo para nosotros.
Marta: Es un placer, como siempre.
Eliezer: Muchas gracias.
Este episodio fue producido por mí. Bruno Scelza hizo la verificación de datos. El diseño de sonido es de Elías González y la música es de él y Rémy Lozano.
El equipo de producción de El hilo está formado por Daniela Cruzat, Jesús Delgadillo, Samantha Proaño y Franklin Villavicencio, con el arte y diseño gráfico de Diego Corzo. El resto del equipo incluye a Natalia Ramírez, Paola Alean, Camilo Jiménez Santofimio, Elsa Liliana Ulloa, Silvia Viñas y Daniel Alarcón. Carolina Guerrero es la CEO de Radio Ambulante Studios. Nuestro tema musical lo compuso Pauchi Sasaki.
El hilo es un podcast de Radio Ambulante Studios. Si valoras el periodismo independiente y riguroso, te pedimos que te unas a nuestras membresías. América Latina es una región compleja y nuestro periodismo necesita de oyentes como tú. Visita elhilo.audio/donar y ayúdanos con una donación.
Si quieres profundizar sobre el episodio de hoy, suscríbete a nuestro boletín de correo entrando a elhilo.audio/boletin. Lo enviamos cada viernes.
También puedes seguirnos en nuestras redes sociales. Estamos en Instagram, X, BlueSky, Facebook y Threads. Nos encuentras como @elhilopodcast. Déjanos allí tus comentarios y etiquétanos cuando compartas los episodios.
Gracias por escuchar.
Transcript:
Eliezer: Welcome to El hilo, a podcast from Radio Ambulante Studios. I’m Eliezer Budasoff.
Two days before the first bombing of Iran, the CEO of Anthropic, the world’s most advanced artificial intelligence company, said this: that they could not let the US government use its model for powering autonomous lethal weapons or for the mass surveillance of citizens.
This news, about a fight between a company and the Pentagon over the use of technology to monitor and destroy, was overshadowed by a war where artificial intelligence is being used to monitor and destroy.
But nThis isn’t the first time it’s been used this way: the United States already used an AI model for its military operation in Venezuela. “It was a perfect operation,” Donald Trump said at the time, because there were no American casualties. More than 80 people died in the operation, including Venezuelan military personnel, Cuban agents, and civilians, but that doesn’t seem relevant to the Pentagon’s calculations.
If the use of artificial intelligence as a weapon of war and control is enough to fill anyone with fear, Latin Americans have even more reason to be afraid. Because our lives are worth less, in economic and political terms, to the military power working on it.
The platform that now allows for mass surveillance of Americans has been used for years against migrants and foreigners living in that country. This is something that author and researcher Marta Peirano recounts in her 2019 book, The Enemy Knows the System.
Marta Peirano’s work focuses primarily on the use of technology to monitor, control, manipulate, and destroy communities, and has become essential for understanding how power operates in today’s world. In this episode, we speak with her to try to answer what the use of AI as a weapon means—for citizens in general, and for Latin Americans in particular.
It is March 27, 2026.
We’ll take a break and then return with the interview.
Marta, I’d like to start with a news story that came out a month ago, almost exactly a month ago, at the end of February, when Anthropic, a company with one of the most advanced artificial intelligence models, announced that it couldn’t renew its multi-million dollar contract with the Pentagon because the government wouldn’t accept two conditions: first, that its model not be used for lethal autonomous weapons, and second, that it not be used for mass surveillance of American citizens. For many, myself included, the news was like… What? What are we talking about? Lethal autonomous weapons? So, I wanted to ask you first if you could tell us the essentials of this news, which are: What is Anthropic, and how long has it been working with the US government on military applications? And how advanced is this? Enough to be talking about lethal autonomous weapons already.
Marta Peirano: Well, Anthropic is a somewhat special company because it’s part of the first generation of engineers who started working after Transformers were invented, which is the T in GPT.
Eliezer: Transformers are the foundation of the large language models we know today. In very simple terms, they are the architecture that defines how these models process information. It’s like the blueprint of an engine: it’s not the engine itself, but the design that determines how it works. This architecture was designed by a group of researchers working at Google and presented in 2017.
Marta: And then from that first generation of engineers who go to Google to make artificial intelligence models A handful of them ended up setting up a company called OpenAI, which was created precisely with the idea that Google was too ambitious and too closely tied to the Department of Defense to be allowed to lead the artificial intelligence race, because it was too dangerous. So, OpenAI is a foundation created with the idea that if someone has to set it up, it’s better that it be done by people who prioritize security from the outset.
Eliezer: Within this group was the researcher and entrepreneur Darío Amodei. There were other important names as well, but we mention him because he plays a central role in this story.
Marta: The thing is, Darío was part of this first group of engineers, and very quickly, after a very short time, he decided to leave and start his own company because he felt that OpenAI wasn’t taking seriously the safety and well-being criteria for everyone that he considered appropriate. So, along with another group of people who had left OpenAI, he founded Anthropic. Anthropic is a very special company because they wanted to demonstrate that, without compromising these principles and values of well-being, protection, and security, it was possible to create a competent artificial intelligence model. And they proved it to such an extent that they became the best company on the market. That is to say, Claude, their artificial intelligence model, is considered the best artificial intelligence model that exists right now, at least in the Western world. For this and other reasons, the United States government, when it was still the Biden administration in 2025, invited artificial intelligence companies to develop a model that would operate with the Department of Defense systems. As you can imagine, they have to have very specific characteristics to be a Department of Defense contractor and very special permits to interact with data that is not only private and sensitive, but literally espionage data. That is, the most private data a government has. And so, the company that won that contract was Anthropic. And in that contract, as in all contracts, both parties stipulated a series of conditions. And one of Anthropic’s conditions was: this model will not be used for the two activities you mentioned. Neither for mass surveillance of American citizens nor for activating or executing lethal autonomous weapons. It so happens that in the last year, the United States Department of Defense changed its name; it’s now called the Department of War, and those who run it have begun to use artificial intelligence as another tool in their arsenal. And they’ve encountered restrictions related to the contract in this case, and they wanted to address them. And Anthropic, unlike other companies in the same sector, has refused, stating that it did not want to amend or alter the original terms. This has led to a standoff in which the United States government has proposed two possible scenarios for Anthropic: either they will invoke a Cold War-era law that, in times of war, compels all American companies to work for the government—similar to how the Chinese government treats Chinese technology companies, which are all at the service of the Party—or they will declare them a supply chain threat, a very rare designation within US government contracts, generally reserved for companies with ties to antagonistic or enemy states. The proof is that only ten companies have ever been classified as supply chain threats, and all but one are Chinese, which is Russian. It’s a truly extreme label. And what that label means is that this company, because of its state alliances or its historical activities, is considered either too vulnerable or too dangerous to be part of the U.S. government infrastructure. This would be the first time a U.S. company has been categorized as a supply chain hazard. And of course, when they threaten Anthropic with these two scenarios, we can really say they’re extorting them because they are two literally opposite scenarios. Either you’re so important to us and so necessary to the U.S. government that we’re going to force you to open up and let us into every nook and cranny. Or you’re so dangerous to the U.S. government that you can’t even touch a wire in this house. In other words, they are two opposing scenarios: either I banish you or I integrate you 100%.
Audio file, Presenter, DW:President Donald Trump ordered all federal agencies to immediately suspend any use of Anthropic’s technology. The Secretary of Defense, for his part, announced that he would designate the company as a risk to the supply chain and national security.
Marta: It seems things have eased up a bit in the last week because, indeed, the US government can’t legally prohibit all US companies from doing business with other US companies. But now there are a number of lawsuits filed by Anthropic against the government, in which it’s defending itself against being labeled a threat to the supply chain.
Eliezer: Marta explained to me that it’s not known, at least not with verifiable information, why it’s so important for the US government to remove these restrictions from the contract with Anthropic, but there are indications. What is known, she told me, is that, in the months the contract has been in effect, the artificial intelligence tools developed by the company seem to have become very important for some activities of the Department of Defense.
Marta: The other thing we know is that the government itself has said it used Claude in the operation to kidnap Nicolás Maduro and also in the attacks in Iran. So, knowing that in at least one of those attacks there was very rapid target selection, very efficient real-time data analysis, and yet it was an operation that didn’t require extra personnel, we can infer that perhaps some of those capabilities are already being used, but we can’t know for sure.
Eliezer: What you’re saying seems incredible to me, doesn’t it? Anthropic’s statement, saying, “We cannot accept the Pentagon’s offer because we refuse to compromise on these two conditions stipulated in our contract,” was on February 26th. Two days later, on February 28th, the first bombing campaign against Iran began. A couple of weeks before the Iran bombing, the Wall Street Journal reported that the Pentagon had used the Claude model in the military operation in Venezuela. And it’s impossible not to think that the government wanted to use it in the war against Iran as well. Do we know how it could be used? Or, excuse me, how it was perhaps used in Venezuela? And are there other recent examples of artificial intelligence being used for military or internal security operations?
Marta: This is what we know: we know that the United States government has been working on a platform from a company called Palantir.
Eliezer: Palantir’s business is essentially the management and analysis of large volumes of data for governments and corporations. The company doesn’t extract or sell data; instead, it uses existing databases—health, traffic, immigration, social media, banking—and unifies them in a single interface. This allows all that data, even if it comes from completely different sources, to be searched in one place.
Martha:Palantir, in the last year, has become somewhat of an operating system for this government’s operations, especially those related to ICE and Border Patrol and those carried out outside the United States, such as the kidnapping of Maduro and the attacks in Iran.
Eliezer: And this is where Anthropic comes in. In November 2024, Palantir announced a partnership with Anthropic and Amazon Web Services to bring its AI models to US government defense and intelligence agencies. In other words, Claude is running on that platform for classified government use. And to understand why this matters, we need to know how Palantir got its start.
Marta: So Palantir is a company that was literally born out of the attack on the Twin Towers. So, it’s a post-9/11 company, and initially, they started building infrastructure to combat terrorism, specifically Islamic terrorism. Then they began selling that infrastructure to systems accustomed to generating large amounts of data, but not to digitizing it in an organized way to ensure compatibility. Some files are PDFs, others are photocopies, some are recordings, others aren’t, some are maps, some are in archives, some are digitized in one format but not another. What they do is convert all of that into something searchable through a single search engine. The problem the United States government has is that it possesses a vast amount of this information. The main problem before was that the information was incompatible; Palantir solved that problem. Once that problem was resolved, the second problem was that it had too much data, requiring an absurd number of analysts to make sense of the relationships between the various documents. And so this makes real-time decision-making, like, for example, if you want to kidnap the prime minister of a distant country, you need and have information about traffic lights, license plates, moving phones, who’s paying for things, and where, right? Yes, imagine having all that information within a few streets of a city. Well, all of that requires a very large, very high amount of processing. And to do it in real time, you need a lot of people looking at it, doing things, and drawing conclusions. What an artificial intelligence model introduces is the ability to analyze all that data in real time as it comes in. You don’t need a month of analysts looking at it to say, “This person has been here,” or “This person is probably living here.” Instead, it’s a shortcut that allows you to make sense of it, that is, to generate intelligence from data that’s arriving massively in real time. That’s what Claude has contributed to the Palantir platform used by the United States government. Why do we know that Claude was used in the kidnapping of Maduro and in the attacks in Iran? Precisely because what they describe is a system of data generated in real time and an analysis of that data in real time. And the only way to do that is with an artificial intelligence model, and the only one they have is Claude.
Eliezer: We’ll be right back.
We’re back on El hilo.
Now, seven years ago, in 2019, when you published your book, The Enemy Knows the System, you mentioned a complaint from Microsoft Azure workers—one of the major cloud storage services. The workers were demanding that the company stop offering its specialized service to the government because it was using it to separate families at the border, right? But you also talk about, for example, how technology developed to detect movement during the Vietnam War was repurposed as a surveillance system on the border with Mexico. And you also mention Palantir’s platform for cross-referencing information, right? So that the government can be more efficient at deporting migrants. My first question regarding this is, what fundamental things have changed in these years, beyond the efficiency or information processing capacity of the technology?
Marta: One thing I haven’t mentioned before, which I think is important, is that we know Palantir is being used with Claude, Anthropic’s artificial intelligence, to target people in the United States. In fact, we know it has a program or application within its own platform called Elite, which helps them generate heat maps to conduct raids in places where the system thinks there’s a high density of targets. And when I say targets, I mean people who could be subject to deportation. So this is the tool that has generated these scenarios we’ve seen in Minneapolis and other places, where they enter a house and seize everything that comes out of it, right? And they’re using this tool in combination with another one, which is a facial recognition system. In other words: they capture people leaving a place where Palantir, equipped with Claude, has already told them there might be many immigrants—for example, a factory or certain buildings where rent might be more affordable. Then, as they arrest them, they put their phones to their faces and use a facial recognition system to see if they’re on their lists. So, we know they’re using it to hunt people. And we also know that some of those people were U.S. citizens. That is, we already know that the U.S. government is using Palantir, Anthropic, and Claude—the Anthropic model—to monitor and persecute U.S. citizens, even if it’s just because they’re like dolphins that get caught in the nets used to catch immigrants. Yes, but they’re not there. They don’t have the capacity to discriminate. Whether or not there are U.S. citizens in those places where they carry out these massive raids. What’s more, we know there are; we know they’ve deported U.S. citizens.
Audio file, Presenter, The Opinion:ICE deported two U.S. citizen girls. However, a judge has ordered their immediate return.
Marta: So, first things first, that’s it, and second, any technology that violates rights abroad ends up violating rights again in its place of origin. This is so commonplace, in fact, that it has a name: the boomerang effect. It’s a boomerang effect that has existed since colonialism. I mean, all the human rights violations that occurred when territories were colonized and people there were treated like animals or objects, and were categorized almost like plants. That was immediately repeated with local citizens. Generally, it starts with minorities. Those minorities begin to become majorities, and in the end, anything goes. Why? Because the crime doesn’t define the victim; it defines the perpetrator. That is, when you use tools that violate rights in a place, it’s you who is transformed, your values are transformed. The one who is aligned with that human rights violation is the one who carries it out, the one who uses those tools, not the victim. The victim changes; the victim is first in Vietnam or the East Indies and then back home, because once you’re done with the East Indies, you have a perfect weapon or a perfect tool to get rid of the people you don’t like and who are in your backyard.homelessOf the sick, of prostitutes, of homosexuals, of opposition members, of activists, of vegetarians—and so on, one after another. It has always happened. It’s a boomerang effect. So, it has always happened that a government that develops these kinds of tools ends up using them against its own citizens. Moreover, we have to consider that the large budget allocation announced by the government a year ago has very specifically benefited ICE and the entire Border Patrol Agency. That is to say, they have given it a gigantic budget to open new, gigantic detention centers, somewhat like the CECOT in El Salvador, but in states within the United States, and also to expand its network of offices and facilities throughout the country, which is quite interesting because we are talking about an organization that, in principle, only deals with immigrants. So, if Donald Trump promised during his campaign that he would deport 14 million people and create an infrastructure that allows him to do so, what will happen when he has implemented his plan? In other words, they’re developing a solid infrastructure for a plan that is theoretically temporary. One has to wonder why they’re investing so much money in that infrastructure and those tools when, once they’ve deported those 14 million people, the problem will be solved. It seems like a very significant investment for a relatively temporary problem. This answers your last question.whatSo, what has changed? For me, two things have changed. The dynamics haven’t changed at all. This dynamic of the tech industry hybridizing with the government to do things it shouldn’t is the same one Edward Snowden exposed in 2013. In 2013, we discovered that the free email, music, and storage services so generously offered by tech companies were part of the long tentacles of the U.S. Department of Defense and its alliance with other intelligence agencies: England, Australia, New Zealand, and Canada. We discovered that; that is, that relationship has existed from the beginning. What has changed is that this infrastructure has grown; it’s now much larger. That is, if before those tentacles were in our pockets, now they’re in our cities. The other thing that has changed is artificial intelligence. Artificial intelligence allows this infrastructure to function as a total, real-time surveillance system.
Eliezer: Do you think the development of AI for military purposes represents a paradigm shift? A leap to another phase? Something that could significantly alter the landscape of military power and efficiency, like… I don’t know, the creation of the nuclear bomb, or is that an exaggeration?
Marta: How many times have we seen the kidnapping of a head of state resolved literally in 60 minutes? We’re seeing how in recent wars—that is, in the most recent centers of armed conflict, which in recent years have been Gaza and Ukraine—both have become laboratories for new warfare technologies. This development in Gaza has been underway for a long time, and there’s actually a fantastic book on this topic called The Palestinian Laboratory, written by an Australian journalist named Anthony Lowenstein. He discussed precisely how the United States, through Israel, has been developing surveillance and assassination technologies in Gaza for all these years, technologies that have then permeated inward, into the United States and also into Ukraine. And in Ukraine, all the major technology companies have been involved, especially Palantir, because it’s a fantastic testing ground for these technologies. So, the ability, once this infrastructure for capturing and analyzing massive amounts of data in real time has been created, the ability to use that data in real time is extraordinary. So, for all these years we’ve been talking about the surveillance machine of Big Tech and the US and Chinese governments. But what that surveillance machine did was accumulate data, accumulate data. And then it created algorithms that used some of that data to draw conclusions in real time and sell us ads. Later, it sold us propaganda, sold us political ideology, and sold each of us a worldview based on the interests of each platform or its clients. Now what we have is a massive, real-time surveillance infrastructure that can act in real time, that can understand in real time, that is seeing the world in real time. This didn’t exist five years ago, and I do believe it changes everything.
Eliezer: Regarding what you’re talking about, this very topic, I have a question, but I want to start a step further, and that’s about the use of this technology and how we accept and justify artificial intelligence as if it were an objective source of information and therefore incapable of making errors in judgment like people do. On the one hand, it’s very striking to see people blindly accepting what Grok or ChatGPT say. Grok as a fact-checker, let’s say, for one of the biggest purveyors of misinformation on this planet, Elon Musk, or people who ask ChatGPT for medical advice and do what ChatGPT tells them. But you also see, rightly so, Elon Musk and other officials accusing Anthropic of wanting to create artificial intelligence.wokeNo, that would supposedly be contrary to a neutral artificial intelligence. It occurs to me that by accusing an artificial intelligence of being progressive, they’re acknowledging the bias it might have, aren’t they? But there’s a tendency to think it’s their objective judgment. What I wanted to know is, is there any way? Is it possible to have a neutral artificial intelligence? And if not, how is it possible for an artificial intelligence to be racist? For example.
Marta: Artificial intelligence comes to us with an advantage: we’ve been trained for 20 years to think that Google is neutral. In other words, the Google search engine, which has been our gateway to the internet all these years, is something most people think is based on a hierarchical system of popularity, efficiency, and accuracy, rather than the fact that it’s Google’s main source of income because it’s their primary advertising platform. That is, what the Google search engine gives you is advertising, advertising that’s actually very similar to the classified ads that used to appear in newspapers. Everything that appears on Google’s first page is paid for, and when something appears first, or more prominently, or one thing over another, everyone thinks it’s because it’s the best possible answer, because it’s the closest thing to a perfect answer that Google can find for you on the internet, when in reality, it’s something that has paid to be there. For the same reason, people think that when they search for something on Amazon, the first thing that comes up is exactly what they’re looking for. In recent years, we’ve begun to see that this isn’t the case. Why? Because Amazon’s internal auction system, where people who want to sell a product pay to have their item listed first, has broken down. It’s broken down because now you search for something that exists and has a certain name, and something similar appears because someone paid more and it falls into the same category. So, after all these years of thinking we’re dealing with systems that delve into information and find the closest thing to the truth, it’s not so hard to believe that a system that has everything on the internet stored in its memory can offer you the closest thing to the truth. Because we have this idea that if I’m wrong, it’s because I’m missing information, well, someone who has all the possible data can’t be wrong. We start from the premise that it’s a technology that has no owners, no objectives, no principles, that simply floats like God, right? It sees everything, processes everything in a completely transparent way, and favors only the truth. We’re not in that scenario at all. We’re dealing with a tool that, even if it were created with the ultimate goal of getting as close to the truth as possible, is trained on our past. In other words, it’s a technology whose magic lies in repeating what we’ve been doing since the very beginning of internet records. Are we racist? I would say yes. And so this technology, which has grown by observing everything we’ve done up to now, is bound to repeat the same patterns it has learned, and it has learned them from us. And our patterns are what they are: we’re racist, we’re sexist, we’re misogynistic, we have a penchant for scandalous content, we have biases, we have learned biases, and other biases related to our cognitive abilities and our blind spots. That is to say, it’s a pattern-repetition system that replicates our mistakes on a massive scale. Therefore, it will never be a perfect tool, and it will certainly never be the tool that will bring us closer to the truth.
Eliezer: We’ll take one last break and come back.
We’re back on El hilo.
A little while ago I asked you about the comparison between the use of AI for military purposes and the nuclear bomb, precisely because I heard an expert discussing the conflict between the public and private sectors regarding this technology, using the nuclear bomb as an example. He said: would you like it if a development like the atomic bomb were in the hands of private companies and we had to rely on the good intentions of businesspeople? And of course, when you think about it like that, especially considering how tech companies have acted in the last two decades, it’s terrifying, isn’t it? But in the case of Anthropic and the Pentagon, for example, it’s the opposite. It’s a private entity setting limits for the State. We live in an era where politics has lost so many scruples that I wanted to know if you think we still have time for some kind of legal limit or regulation that will actually be effective? Faced with this, or rather, should we place our hope in the ethical decisions made by private individuals, which so far has been Dario Amodei, right? Because ChatGPT, I mean, the company OpenAI immediately responded to the Pentagon’s call after the fight with Anthropic.
Marta: To no one’s surprise. We clearly live in an unusual era where previously it took the economic and legal power and energy of a state, a government, or several states to do something as big as going to the moon orasBuild an atomic bomb. We’re now at a point where a single individual with a single company can do all those things, almost with the same company, right? Build an atomic bomb, go to the moon, go to Mars, pick up his girlfriend, come back. We’re in a very strange moment where the concentration of resources is so, so, so high that one person can make that decision without having been democratically elected, without having been voted on by anyone, without having a parliament that has to evaluate their decisions before they’re implemented. So it’s a very special moment, but it’s also true that some of the people who have been democratically elected are acting in a very undemocratic and very irresponsible way. Right now, in this fight between Anthropic and the United States government, we’re seeing almost a reversal of the usual formula, which is a government putting the brakes on a company. Now we’re seeing a company putting the brakes on a government. It’s a very interesting situation because it shows us that they can’t each act on their own. Anthropic’s software, Anthropic’s artificial intelligence model, but also that of ChatGPT or Google’s AI isn’t like a helicopter you buy and can use however you want. It’s not like a tank you buy and can take anywhere. These are services that operate from a cloud infrastructure that’s generally not located within the state’s facilities. In other words, there’s a physical, materialistic independence that prevents a government like the United States from using an artificial intelligence model to monitor its own citizens or to carry out mass killings without the company’s deliberate complicity. This is interesting because it suggests that there is indeed responsibility; the company can’t simply say, “Well, we sold them the technology and we’re washing our hands of it.” Companies share responsibility for everything the government does with these technological products, and I think this creates a situation that requires consensus. It requires consensus between governments and companies. What happens? There are governments where this isn’t a problem because they are authoritarian regimes where all companies work for the party, like in China, for example. Then there are governments where it is a problem because some companies may be aligned with this philosophy and others may not. I believe there’s an opportunity there, an unlikely opportunity, for technology companies to reach a consensus among themselves, to not opportunistically participate in this government’s war against its own citizens and those of other countries. I believe there’s an opportunity to rehumanize this situation. I’m not saying they’ll take advantage of it, I’m not saying I’m optimistic in that regard, but I am saying there’s an opportunity for that shared responsibility to benefit the common good and not just seven oligarchs and an authoritarian government.
Eliezer: Everything we read in the more or less serious press about artificial intelligence is overwhelming and dystopian, isn’t it? And as I was saying, it greatly benefits the millionaires in charge of these companies, because it means this sense of imminence gives them carte blanche to never slow down their careers, right? But the other day I heard a journalist say: There are many things to worry about with artificial intelligence, but we can also have different emotions regarding this technology. I mean, not just fear and anger and despair, he says: It’s a fascinating time. And there are also stories like, I don’t know, a businessman who uses AI to research a cure for his dog’s cancer without having any knowledge of biotechnology, right? So I wanted to know, how do you manage to look between these two extremes? Because you don’t have the chance to distance yourself, unlike those of us who cover other things; it’s your area of expertise. So, to wrap things up, it’s a self-help question, if you will. What are your strategies for avoiding falling into thought traps, absolute nihilism, or media campaigns? What has worked for you to face everything head-on without completely losing your spirit?
Marta: Well, the first thing I have to say is that I am often accused of being a Luddite and it makes me laugh because I have dedicated my whole life to technology.
Eliezer: The Luddites were a workers’ movement that arose during the Industrial Revolution. Their form of protest involved the destruction of looms and other machines that were being used to eliminate their trades. The term “Luddite” is often used loosely to refer to those who reject or distrust modern technology.
Marta: I mean, I’ve been a technology enthusiast since I was little. My father was an engineer. There’s always been a passion for all things technical in my house, and from the beginning of my career, I’ve dedicated myself to covering the internet, writing about technical and communications infrastructure, and that’s what interests me most in this world. I mean, I feel like I live in a fascinating world. Every day I wake up knowing I’m going to discover incredible things because incredible things happen every day. I have an advantage over perhaps people who have had other passions in life in that I was very involved with the free software scene and the world of hackers from a very young age, and so I’ve been a constant witness to amazing people doing incredible things with technologies designed to benefit as many people as possible. So, my relationship with technology isn’t entirely tainted by what I think of digital platforms. We live in a time when digital platforms occupy so much space in our lives that when we talk about technology, it seems like we’re only talking about that. But technology is a much bigger world. Before, when we talked about technology, we only talked about the internet. Now, when we say the internet, we really mean Instagram, Twitter, and Google, and now everything is AI. Now, when people say technology scares them, what they mean is that artificial intelligence models scare them. And so, I feel I have a much richer relationship with technology than what comes across in my work, because I’m living in a time when one of my biggest obsessions—the link between technology and power, that is, the use of technology to monitor, control, manipulate, and destroy communities—is escalating rapidly and happening right before our eyes. So, I experience the world of artificial intelligence with enormous excitement. I mean, one of my favorite phrases from recent years is that artificial intelligence models are too important to leave in the hands of the seven magnates at the big American tech companies. I think it’s a development that started in universities and should continue in universities. I think we have the possibility, perfectly within reach of Europe, but also of the rest of the world, to build artificial intelligence in the same way we built the internet—that is, as a collective, decentralized project designed to be resilient, to be as neutral as possible, to benefit the greatest number of people possible. And it worked out well. The internet works very well; the internet has changed our lives for the better. Unfortunately, this development has been hijacked by a group of people and turned into an arms race that depends on an impossible amount of resources. So, when I write very negatively about this type of development, it’s because, coming from the world of free software and firmly believing in the power of technology to change our lives for the better, I know that this is not the right path. How do I experience this moment? Well, I experience it knowing that the problem we have is not technical. We have technical solutions to this problem. There are ways to do it right, and many people know those ways, and we have all the infrastructure we need to do it right. But there’s a kind of blindness, tainted by the fact that those who control these technologies also control the media. In other words, this concentration of power—the extraction and analysis of data and the massive control of that information—has also permeated the world of media. We’re in a media ecosystem where our worldview is shaped by the very people who want to control us. So, it’s a very difficult time to be optimistic. But I am optimistic because I know our problem isn’t technical. We don’t need to invent a new technology to solve this concentration of power, this concentration of media ownership, and this mass control. We don’t need a new technology. We have all the technology and all the knowledge we need to solve this. What we need is a political generation that rises to the occasion.
Eliezer: Marta, thank you so much for making time for us.
Marta: It’s a pleasure, as always.
Eliezer: Thank you very much.
This episode was produced by me. Bruno Scelza did the fact-checking.The sound design is by Elías González and the music is by him and Rémy Lozano.
The production team ofThe team consists of Daniela Cruzat, Jesús Delgadillo, Samantha Proaño, and Franklin Villavicencio, with art and graphic design by Diego Corzo. The rest of the team includes Natalia Ramírez, Paola Alean, Camilo Jiménez Santofimio, Elsa Liliana Ulloa, Silvia Viñas, and Daniel Alarcón. Carolina Guerrero is the CEO of Radio Ambulante Studios. Our theme music was composed by Pauchi Sasaki.
El hilo is a podcast from Radio Ambulante Studios. If you value independent and rigorous journalism, we encourage you to join our membership program. Latin America is a complex region, and our journalism needs listeners like you. Visit elhilo.audio/donar and support us with a donation.
If you’d like to learn more about today’s episode, subscribe to our email newsletter at elhilo.audio/boletin. We send it out every Friday.
You can also follow us on our social media channels. We’re on Instagram, X, BlueSky, Facebook, and Threads. You can find us as @elhilopodcast. Leave your comments there and tag us when you share the episodes.
Thank you for listening.



