Entre fines de 2025 y la primera mitad del corriente año, GitHub, una de las plataformas críticas, donde se organiza, revisa y publica buena parte del software que sostiene internet, empezó a mostrar señales claras de estrés estructural: degradaciones de disponibilidad, incidentes en pull requests, problemas de búsqueda, demoras en procesos internos y la inevitable necesidad de reforzar partes críticas de su infraestructura. La propia compañía reconoció en Octubre de 2025 que había iniciado un plan para multiplicar por diez su capacidad, pero que en Febrero de este año esa estimación original se había quedado corta, y ya necesitaba escalar su infraestructura para soportar treinta veces su carga actual. El motivo declarado fue un cambio brusco en la forma de construir software: desde la segunda mitad de Diciembre de 2025, crecieron exponencialmente la creación de repositorios, la actividad en pull requests, el uso de sus APIs, y el resto de sus servicios públicos.
La importancia del caso GitHub reside en que se preconfigura como un caso testigo de esta nueva realidad donde los agentes de IA comienzan a tomar un rol predominante. Lo que aparece primero como un problema de disponibilidad puede extenderse a cualquier sistema construido sobre una premisa que hasta ahora parecía obvia: que del otro lado el usuario clave era humano. APIs públicas, formularios, free tiers, paneles administrativos, flujos de soporte, tiendas, repositorios, sistemas de autenticación, wikis, chats corporativos y herramientas colaborativas fueron pensados para una población de usuarios que actúa de acuerdo a la cadencia humana. Pero los agentes introducen otro régimen operativo. Internet empieza a recibir a gran escala usuarios que no se cansan de intentar, no se intimidan ante un formulario, no olvidan una tarea abierta y no se detienen cuando la atención humana, en terminos generales, se agota.
Buena parte de la web y sus sistemas se antropomorfizaron. Lo cual es esperable. Lo cual es razonable. Los sistemas adecuandose a sus usuarios. El humano escribe despacio, alterna en sus tareas, se toma tiempo para interpretar pantallas, luego descansa, y luego se equivoca, se aburre, y abandona. Esa fragilidad funcionó durante años como un regulador invisible de la demanda. Los agentes erosionan vienen a pulverizar a ese regulador. Los agentes pueden abrir tickets, consultar APIs, comparar resultados, generar variaciones, probar caminos alternativos y reintentar operaciones con una persistencia ajena a la economía de la atención humana. Por eso la crisis se manifiesta primero en el plano de la infraestructura, pero no hay que ser ingenuo y pensar que este cambio se va a detener con esto. Eventualmente, alcanzará cualquier servicio cuyo diseño dependa de una premisa ahora puesta en entredicho: que el usuario clave final es un humano. Y lo hara en todas las capas del sistema: infraestructura, interfaces, modelos de negocio, gobernanza. El caso GitHub es solo el primer temblor.
En este punto, la llamada teoría de la internet muerta adquiere una lectura más trascendental si se la separa de su versión conspirativa. Según esa teoría, buena parte de la red ya no estaría poblada por personas, sino por bots, contenidos sintéticos e interacciones automatizadas que simulan la actividad humana. Es importante poner de relieve, de todas formas, que internet fue concebida como un lugar donde humanos y máquinas podían comunicarse: desde el comienzo estuvo hecha de servidores, protocolos, crawlers, caches, buscadores, filtros, sistemas de recomendación y plataformas. Para el filósofo Bruno Latour, lo social no está compuesto solo por humanos, sino por redes de actantes: entidades humanas y no humanas —personas, máquinas, reglas, instituciones, dispositivos— capaces de producir efectos dentro de un ensamblaje. Desde esa perspectiva, los agentes de IA no son una anomalía invasora, sino la intensificación del carácter híbrido, técnico y distribuido de internet. Lo que se reconfigura ahora es el peso específico del actante no humano. El protagonismo dentro del ensamblaje empieza a redistribuirse.
Pero la diferencia actual reside en el grado de agencia delegada. Los bots clásicos rastreaban páginas, indexaban contenido, publicaban spam o ejecutaban rutinas acotadas. Los agentes recientes interpretan objetivos, dividen tareas, consultan herramientas, observan resultados y crean y sintetizan planes de creciente complejidad. Actúan sobre interfaces humanas con una intensidad tal que alteran la infraestructura que los recibe. Buscan por nosotros, programan por nosotros, comparan precios por nosotros, prueban vulnerabilidades por nosotros, reclaman soporte por nosotros. Y crecientemente, cada uno de estos agentes encontraran que aquel con quien interactúan, ya sea al recibir la respuesta de una busqueda de un producto, o la revisión de código que hayan generado, o al recibir ofertas, o quien responda a sus reclamos de soporte, sera otro agente.
El filósofo Paul Virilio nos ayuda a enriquecer la perspectiva del fenómeno. Su tesis de que toda tecnología inventa su propio accidente permite leer estos fallos sin minimizarlos como contingencias o fallos de ingeniería. El barco trae consigo el naufragio; el avión, el accidente aéreo; la web agentiva, la saturación automática de sistemas antropocéntricos. El accidente no aparece únicamente cuando una plataforma cae, sino cuando revela bajo presión el tipo de fragilidad que su propia promesa contenía. Si la promesa de los agentes consiste en ejecutar tareas a escala, su accidente característico consiste en ejecutar también a escala la demanda, la fricción, el reintento, la explotación y el abuso. El outage deja entonces de ser una excepción marginal y pasa a funcionar como un síntoma: la infraestructura empieza a experimentar el accidente específico de una internet recorrida por entidades que actúan sin pausa y a una escala inédita.
La consecuencia lógica es que el humano dejará de ser el usuario operativo central de internet. Seguirá definiendo deseos, objetivos y criterios de valor, pero muchas acciones concretas pasarán a ejecutarse mediante agentes. Ese desplazamiento transformará todas las capas constitutivas de los sistemas distribuidos. Primero caerá sobre la infraestructura: más tráfico, más eventos, más consumo de cómputo. Después alcanzará las interfaces: ¿cuánto sentido tiene invertir esfuerzo en experiencias visuales optimizadas para humanos si el usuario decisivo será un agente que prefiere una API, un protocolo, un contrato semántico o un canal estructurado de acciones? Finalmente, llegará a los modelos de negocio: los free tiers, los límites de uso y las métricas de engagement tendrán que distinguir entre el crecientemente irrelevante usuario humano y el mucho más relevante usuario agéntico.
El drama de GitHub se constituye entonces como una sonora advertencia que explicita el tránsito entre dos épocas incompatibles de internet: una organizada alrededor de visitantes humanos y otra que deberá organizarse alrededor de estos invasores. Bruno Latour nos ayuda a entender que estas entidades forman parte del ensamblaje sociotécnico de internet. Y entonces, la pregunta clave parece ser, como nos advierte Paul Virilio, cómo nos estamos preparando para el inevitable accidente al cual nos aproximamos.