La facilidad para producir escritos a gran escala alimenta una carrera defensiva de filtros y verificaciones mientras crece el temor al fraude y a la saturación del trabajo humano
La proliferación de herramientas de inteligencia artificial generativa está abriendo un problema nuevo para instituciones que, hasta ahora, se apoyaban en una limitación tácita: escribir cuesta tiempo y esfuerzo. Esa barrera, que funcionaba como “cuello de botella” natural, se desvanece cuando un programa puede producir en minutos cientos de cartas, artículos, solicitudes o demandas con una apariencia razonable. El resultado es una presión creciente sobre juzgados, redacciones, revistas académicas, ayuntamientos y plataformas digitales, que deben dedicar más recursos a filtrar lo que reciben y, al mismo tiempo, mantener abierto el acceso a sus canales de participación.
El episodio que muchos citan como síntoma temprano ocurrió en 2023, cuando la revista de ciencia ficción Clarkesworld suspendió temporalmente la recepción de relatos tras detectar un aluvión de envíos generados con IA. Los editores concluyeron que parte de los remitentes copiaba las directrices de la publicación en un sistema automático y enviaba el resultado sin trabajo propio.
Lo que era un problema circunscrito al mundo editorial se ha extendido a ámbitos más sensibles. En el terreno judicial, el uso descuidado de estas herramientas ha dejado ya un rastro de escritos con citas inventadas o mal atribuidas. En Estados Unidos, un tribunal de apelaciones advirtió recientemente a litigantes sin abogado sobre los errores derivados de la IA en documentos presentados ante la justicia, un fenómeno que se ha multiplicado desde el auge de los generadores de texto.
A la saturación se suma un elemento que inquieta a las instituciones: la carrera armamentística. A medida que crecen los envíos automáticos, también se generaliza el uso de sistemas automáticos para cribarlos. Jueces, revisores académicos, moderadores y departamentos de recursos humanos recurren a herramientas de detección o clasificación que, a su vez, empujan a los emisores a afinar los textos para esquivar controles. La lógica es adversarial y rápida, con un coste evidente en tiempo, dinero y confianza.
El debate, sin embargo, no se reduce a prohibir o permitir. Varios analistas subrayan que la misma tecnología puede ser una palanca de igualdad. Para investigadores con menos recursos o autores cuya lengua materna no es el inglés, la IA puede facilitar la redacción y la comunicación científica, del mismo modo que durante años los perfiles con más financiación han podido pagar asistencia humana. Esa utilidad también aparece en la búsqueda de empleo cuando la herramienta se limita a pulir un currículum o mejorar una carta de presentación. El dilema comienza cuando la automatización se convierte en atajo para el engaño o la suplantación.
En el ámbito político y social, el riesgo tiene un nombre conocido: el astroturfing (campañas que simulan apoyo ciudadano espontáneo). Si una herramienta permite generar miles de mensajes “personalizados”, una organización con recursos puede inundar consultas públicas, buzones parlamentarios o foros locales y distorsionar la percepción del consenso. Estudios previos ya habían mostrado que legisladores y equipos pueden tener dificultades para distinguir cartas humanas de mensajes generados por modelos de lenguaje, un problema que crece con la mejora técnica de los sistemas.
¿Qué están haciendo las instituciones para no colapsar? En la práctica, se observan tres líneas de defensa. La primera es el endurecimiento de los accesos (límites por usuario, verificación de identidad, listas de autores de confianza), una salida eficaz pero con un coste democrático y cultural evidente, porque estrecha la puerta de entrada. La segunda es la automatización defensiva (detectores, moderación algorítmica, clasificación por riesgo), que reduce carga de trabajo pero introduce errores y sesgos, además de trasladar poder a quien controla el filtro. La tercera es la exigencia de transparencia (declarar si se ha usado IA, aportar fuentes y trazabilidad), un enfoque que busca preservar el valor de la autoría y el control de calidad, aunque su verificación no siempre es sencilla.
El reto de fondo es mantener la confianza en sistemas diseñados para otra escala. La sociedad pierde si los tribunales se ralentizan con casos frívolos fabricados en cadena o si la investigación premia a quien envía artículos con apariencia científica pero sin sustancia. La respuesta, señalan algunos autores, no pasa por “apagar” una tecnología que ya está ampliamente disponible, sino por adaptar procedimientos, reforzar controles y clarificar límites éticos, especialmente allí donde el incentivo al fraude es alto.
En ese ajuste, la regla clásica sigue vigente: lo importante no es solo publicar o tramitar más, sino sostener criterios de atribución y verificación que permitan distinguir hechos de opiniones y garantizar que lo esencial es comprobable.
El ensayo ha sido publicado en Schneier.










