6 Tips para una Arquitectura Web eficiente

Después de varios años en el mundo del SEO, me atrevería a decirte que la definición estructural o arquitectura web que hagas condicionará en buena medida tu éxito (o la ausencia de él). No sólo en el ámbito SEO, también en el del Negocio.

En este sentido, quiero compartir contigo las claves para plantear una arquitectura de la información efectiva que he ido aprendiendo a través de mi experiencia en proyectos SEO:

 

1/ Sé realista al elegir tus keywords objetivo

Atrás han quedado los años en los que se construían landing pages casi para cualquier resquicio semántico, sin importar la intención de búsqueda real del usuario.

Una de las claves más importantes es enfocar eficientemente la lógica semántica. Por esta razón, el planteamiento de la Arquitectura web o de la Información (AI) suele comenzar con un Keyword Research. Y aunque pueda parecer muy básico, lo cierto es que una mala elección puede llegar a convertirse en una espiral de frustración. Este proceso requiere de un ejercicio de autoconocimiento que pasa por aceptar la propia realidad de nuestro proyecto. Para ello, intenta responder a estas preguntas:

  • ¿Cuál es mi nivel de competitividad ante esta keyword? ¿Puedo optar a ella?
  • He encontrado nuevos nichos que pueden traer tráfico pero, ¿voy a ser capaz de integrarlos en mi proyecto y ser competitivo frente a mi competencia?

El keyword research te va a servir para tomar insights del mercado, pero sé realista al elegir tus keywords objetivo (sin perder la ambición): ¿tu proyecto va a satisfacer realmente las intenciones de búsqueda que hay tras estas keywords?  

 

Curso Arquitectura Web

2/ Lo que no quieras que se rastree, no lo crees

Si hay algo que he aprendido a la hora de plantear AIs es que un enlace que no existe no traerá problemas. Y ésto tiene mucho que ver con la eficiencia.

Lo ideal es directamente no llegar a generar aquellas URLs que no sean óptimas para el usuario final (por ejemplo, demasiadas facetas sin valor real). Sin embargo, muchas veces ésto no es posible. En la mayoría de ellas, ésto ocurre porque se hereda una AI en cuya creación no ha intervenido un SEO. Por ejemplo:

  • Se ha construido un facetado exponencial (combinatorias infinitas)
  • Se han generado filtros por encima de nuestras posibilidades
  • Se ha planteado un menú sobredimensionado

O quizá se ha producido algún error técnico o una implementación no consensuada:

  • Hay una generación accidental de URLs dinámicas
  • Hay duplicidades por parámetros
  • Hay un descubrimiento de URLs que no existen por errores de implementación

Personalmente, me encanta hacer apología con el mundo del reciclaje y mi consejo es el siguiente:

  • Reduce: Intenta reducir el nº de URLs de dudosa utilidad que se generan.
  • Reutiliza: Reutiliza, en la medida de lo posible, las URLs estacionales. No generes nuevas. Además, ésto tiene ventajas: heredas enlaces, acumulas señales.
  • Recicla: Si una URL ya no te sirve y no tiene demasiadas señales, elimínala o redirecciónala.

 

3/ Lo que no quieras que se rastree, tampoco lo enlaces

El rastreo de Google se basa en los criterios elegidos para realizar nuestro enlazado interno. Muchas veces, acabamos enlazando páginas poco útiles y, en lugar de eliminarlas lo que hemos venido haciendo este tiempo ha sido añadir un rel=”nofollow” a esos enlaces para “no dedicarles tiempo de rastreo de Google”. Cómo optimizar el rastreo en nuestra web y la transmisión de autoridad es una de las ciencias más desconocidas y sobre las que más se especula por lo que te animo a experimentar cuanto más, mejor, pues no todo es aplicable a todos los proyectos.

Aunque desde Google se afirma que el “rel=nofollow” puede ayudarnos en grandes sites a optimizar el Crawl budget, una de las cosas que he podido confirmar es que utilizar el rel=”nofollow” no es garantía absoluta para que esos enlaces no se sigan.

Fuente: Seoroundtable.com

 

He podido comprobar como en mis logs hay rastreo de enlaces a páginas con rel=nofollow. Sobre todo si el enlazado interno es recurrente hacia esos enlaces (algo que suele pasar en componentes como filtrados o footers, donde los enlaces se replican en numerosas páginas) o si Google encuentra señales para considerar que es importante seguirlo.

Por otro lado, incluso los propios miembros de Google han afirmado en Twitter y vídeos que el rel=”nofollow” no permite que fluya el PageRank sino que lo diluye, creando un bucle de pérdida de autoridad que no nos interesa. Ésto es realmente difícil de confirmar, pero está en las patentes de Google, por lo que es motivo suficiente para al menos, tenerlo en consideración.

Si hay algo que está claro en este tema es que una sólida estructura ajustada a los requisitos de Google será más productiva que hacer encaje de bolillos con los rel=”nofollow”. Así lo publicaba Google en el Soporte para desarrolladores y así os aconsejo que lo hagáis si tenéis la suerte de partir de cero.

 

4/ Lo que no quieras que se indexe, no lo enseñes

Cuando no tienes la suerte de partir de cero con un proyecto y heredas una AI mal planteada, siempre nos quedará  la opción de ocultar esta información a Google a partir de la omisión del rastreo (Robots.txt) o de la indexación (directiva meta robots noindex).

Es importante desindexar antes de omitir el rastreo y dar un tiempo prudencial hasta que Google haya asimilado los noindex (suele ser rápido en ésto). De lo contrario, las URLs que deseas obviar del rastreo seguirán indexadas pese a que tengan el noindex, ya que el bot no habrá pasado para ver esa nueva directiva meta robots.

Mi consejo: ésto no deja de ser un parche y es un síntoma que denota que una AI no está sana, pero tampoco te alarmes por hacer uso de estos recursos. Muchas veces es muy necesario, aunque siempre debe ser transitorio.

 

5/ Lo que quieras mostrar a Google, no lo escondas

La profundidad a la que se encuentran los enlaces en la AI es importante tanto para el rastreo como para la distribución del “link juice”. No se aconseja tener más de 3-4 niveles de profundidad. Intenta enlazar en los primeros niveles las URLs a las que más fuerza quieras otorgar.

Una cuestión importante en este tema es diferenciar entre niveles de profundizar y nº de directorios o paths de una URL. Que una URL tenga varios niveles de directorios no significa que esté a tantos niveles de profundidad como directorios tenga. La profundidad se mide en nº de clics desde home o la página principal.

 

6/ El SEO está al servicio de la AI, y no al revés

Quizá esta clave debería estar al principio, pero me parece un buen cierre.

La Arquitectura de Información es un activo empresarial, no es de dominio exclusivo de SEO, pese a que es su carta mejor cotizada. En ella, un proyecto web se juega el negocio y muchas veces es difícil plantear grandes cambios estructurales por muy beneficiosos que puedan resultar para el SEO a corto o largo plazo. La cantidad de áreas y procesos implicados, sobre todo en grandes sites,  pueden hacer que cualquier ínfimo cambio traiga consigo sustanciales interferencias en sus sistemas de información.

En este sentido, la labor del SEO siempre será comunicar los cambios óptimos que podrían realizarse y cuantificarlos en términos económicos, pero también maximizar resultados con los recursos disponibles y armarse de paciencia y diplomacia para trasladar la cultura SEO a la empresa.

 

minerva-sanchez

Autora:

Minerva Sánchez

SEO Manager PcComponentes

Leave a Comment