Bienvenido/a a ICEMD, nuestro Instituto de Innovación

GoDaddy y Cloudflare: el nuevo control de acceso para decidir qué bots de IA pueden leer tu web

La web corporativa deja de ser solo un canal de tráfico humano.

Artículo
publicado: 23 Abr 2026
3 de lectura

COMPARTIR:

La web corporativa deja de ser solo un canal de tráfico humano. Con la integración de AI Crawl Control, GoDaddy permite a sus clientes decidir si los crawlers de IA pueden acceder, ser bloqueados o pagar por el contenido.

El caso en 30 segundos

El 7 de abril de 2026, The Verge publicó que GoDaddy está trabajando con Cloudflare para integrar AI Crawl Control, una herramienta que permite a los propietarios de webs decidir cómo acceden los crawlers de IA a su contenido. Según la información publicada, los editores pueden permitir bots, bloquearlos o pedirles que paguen por acceder.

La innovación no está solo en bloquear bots. Está en convertir el acceso de la IA al contenido web en una decisión estratégica de negocio: quién puede leer, con qué finalidad, bajo qué condiciones y con qué compensación.

Qué lo hace innovador

  1. Lleva el control de bots IA al mercado masivo

Hasta ahora, estas capacidades parecían pensadas para grandes publishers, medios o empresas con infraestructura técnica avanzada. GoDaddy cambia la escala: lleva la discusión a millones de pequeñas y medianas webs corporativas, e-commerce, blogs profesionales, marcas personales y negocios digitales.

El mensaje es claro: cualquier empresa con una web debe empezar a decidir su política frente a la IA.

  1. Cambia el contenido web de “abierto por defecto” a “gobernado por decisión”

Durante años, el modelo dominante fue publicar contenido para atraer tráfico desde buscadores, redes sociales y enlaces externos. La IA introduce otra lógica: sistemas que leen, resumen, entrenan, recuperan información o responden sin enviar necesariamente una visita al sitio original.

WIRED ya describía el aumento de bots de IA como parte de una transformación estructural de internet, con crawlers usados tanto para entrenamiento como para recuperación de información en tiempo real.

  1. Abre la puerta a una nueva economía de licencias

La integración conecta con un movimiento más amplio: pasar del scraping no compensado a modelos donde los propietarios de contenido puedan negociar acceso, bloqueo o pago.

TechCrunch informó en 2025 de Pay per Crawl, el experimento de Cloudflare que permite a propietarios de webs decidir si un crawler de IA puede acceder gratis, pagar por crawl o quedar bloqueado.

Cómo lo implementaron

La información pública disponible no detalla todos los aspectos técnicos de la integración. Lo verificable es que GoDaddy trabaja con Cloudflare para integrar AI Crawl Control en su plataforma de hosting, permitiendo gestionar el acceso de crawlers de IA desde una capa de infraestructura.

En términos operativos, el modelo se puede entender en tres decisiones:

  • Permitir: dejar que determinados bots IA accedan al contenido.
  • Bloquear: impedir el acceso de crawlers no deseados.
  • Monetizar: solicitar pago o compensación por el acceso.

Cloudflare ya había movido el mercado en esa dirección: WIRED publicó que la compañía pasó a bloquear crawlers de IA por defecto para sus clientes y avanzó con un programa Pay Per Crawl para que las webs pudieran cobrar a empresas de IA por el scraping.

Resultados o métricas

No hay métricas públicas verificadas en las fuentes usadas sobre adopción de esta integración específica entre GoDaddy y Cloudflare: ni número de webs activadas, ni ingresos generados, ni impacto en tráfico.

Lo que sí existe es contexto cuantitativo sobre el problema que intenta resolver:

  • Digiday publicó el 13 de abril de 2026 que Akamai observó un aumento del 300% en actividad de bots de IA en 2025, con medios y publishers entre los sectores impactados.
  • WIRED recogió datos de TollBit según los cuales una parte creciente del tráfico web procede de bots de IA y que algunas solicitudes ignoran robots.txt.

La conclusión ejecutiva: no estamos ante una funcionalidad defensiva menor, sino ante una respuesta a un cambio real en el patrón de consumo de la web.

Por qué importa para empresas, no solo para medios

Aunque el debate empezó en publishers y medios, el impacto alcanza a cualquier compañía que publique contenido de valor:

  • Informes sectoriales.
  • Guías técnicas.
  • Comparativas de producto.
  • FAQs comerciales.
  • Documentación.
  • Estudios propios.
  • Contenido educativo.
  • Casos de cliente.
  • Blogs corporativos.
  • Bases de conocimiento.

Si ese contenido alimenta respuestas de IA sin generar tráfico, leads, atribución o relación directa, la empresa debe decidir si lo acepta, lo bloquea o lo negocia.

Lecciones aplicables

  • La web ya no recibe solo visitas humanas. También recibe agentes, crawlers, fetchers y sistemas automatizados.
  • El contenido corporativo es un activo de datos. No debe gestionarse únicamente como marketing o SEO.
  • El tráfico deja de ser la única métrica. Hay que medir también uso, acceso, atribución y captura por terceros.
  • Robots.txt ya no es suficiente. Las fuentes consultadas coinciden en que algunos crawlers ignoran o rodean señales tradicionales.
  • La monetización del contenido puede cambiar. Digiday ya ha descrito movimientos hacia estándares y modelos de pay-per-crawl o pay-per-inference para publishers.
  • La gobernanza web entra en comité de dirección. Ya no es solo una cuestión de SEO técnico o IT.
  • La ventaja será decidir pronto. Bloquear todo puede reducir visibilidad; permitir todo puede destruir valor.

Qué debe hacer un CMO

El CMO debe dejar de ver este tema como una cuestión técnica. Es una decisión sobre distribución, autoridad y relación con el cliente.

Preguntas clave:

  • ¿Qué contenidos queremos que aparezcan en respuestas de IA?
  • ¿Qué contenidos queremos proteger?
  • ¿Qué parte de nuestra estrategia SEO depende de tráfico que puede ser capturado por asistentes?
  • ¿Qué datos o documentación no deberían alimentar sistemas externos sin control?
  • ¿Qué contenido merece una estrategia de licensing?
  • ¿Cómo mediremos visibilidad en IA si la visita no llega a nuestra web?

Qué debe hacer un CIO

El CIO debe traducir la política de negocio a controles técnicos:

  • Mapear crawlers que acceden al dominio.
  • Revisar logs, tráfico automatizado y consumo de recursos.
  • Evaluar soluciones de bot management.
  • Diferenciar bots útiles, bots comerciales, crawlers de IA y tráfico malicioso.
  • Alinear hosting, CDN, seguridad, SEO y legal.
  • Crear reglas por tipo de contenido, no solo por dominio completo.

Qué vigilar en los próximos 90 días

  • Si GoDaddy activa la funcionalidad de forma amplia para clientes no técnicos.
  • Si otras plataformas de hosting replican el modelo.
  • Si Cloudflare publica métricas de adopción de AI Crawl Control o Pay Per Crawl.
  • Si grandes modelos de IA aceptan pagar por acceso programático.
  • Si aparecen estándares más claros para distinguir entrenamiento, búsqueda, inferencia y agentes.
  • Si los equipos SEO empiezan a reportar “visibilidad en IA” junto a tráfico orgánico.
  • Si marcas no mediáticas —retail, educación, B2B, software, consultoría— empiezan a bloquear o monetizar contenido.

Decisión directiva

Hasta ahora, la pregunta era:
“¿Cómo conseguimos más tráfico hacia nuestra web?”

La nueva pregunta será:
“¿Bajo qué condiciones permitimos que la IA use el contenido de nuestra web?”

El caso GoDaddy + Cloudflare anticipa una web menos ingenua y más gobernada. Las marcas que entiendan esto pronto podrán proteger mejor su conocimiento, negociar mejor su valor y diseñar una estrategia de presencia en IA más madura.

Elementos Relacionados

vídeos
artículos
estudios
ebooks
infografías
eventos

No queremos ser testigos del cambio, queremos ser catalizadores del cambio ayudando a crecer, a desarrollarse y a transformar a los que serán creadores de futuro mañana.

Este es un ecosistema en continuo movimiento. ¿Quieres formar parte de la transformación?

Escríbenos y en breve nos pondremos en contacto contigo.

O si lo prefieres, llámanos al 914 52 41 00