Sin categoría

Como hacer a fin de que mi web le guste y se indexe en Google.

By 3 marzo, 2015 No Comments

Como hacer que mi web guste e indexe en Google y atraer trafico en buscadores .

Una página, si está bien programada, puede producir un potencial de tráfico en los buscadores web de Internet como Live Search, Google o bien Yahoo! Este potencial de tráfico viene determinado por el posicionamiento que los diferentes contenidos de dicho sitios puedan lograr para las buscas relacionadas con ellos que puedan proponer los usuarios, por una parte.

Mas al tiempo, por el total de contenidos o bien páginas internas que contenga el sitio. Está claro que, a mayor cantidad de contenidos, el potencial de tráfico habría de ser mayor, y por ende la indexación asimismo seria mayor….

¿…O es posible que no se indexe adecuadamente?

Los motores de búsqueda y directorios de la Red son la primordial fuente de tráfico que llega a un portal, a unos sitios, a una web corporativa, a un weblog, a una comunidad web….

googleUn sitios bien posicionado para términos de busca populares y con gran cantidad de contenidos tiene una capacidad considerablemente mayor de percibir tráfico proveniente de los buscadores web que un sitios con escasos contenidos, encuadrado en temáticas que producen un escaso interés en los usuarios de la Red o bien mal posicionado para dichas buscas. Este punto es esencial para el posicionamiento, a mayor interés en las webs, o bien en sus contenidos, más trafico se genera; para páginas con contenido muy exclusivo, la cantidad de usuarios que están interesados en el tema es menor y por consiguiente menor el número de visitas.

En otros artículos sobre posicionamiento web en buscadores, hemos hablado de que el posicionamiento de una web en los buscadores web depende, fundamentalmente, de 2 aspectos: la relevancia on page, o bien relevancia de los contenidos de la propia página –esencialmente los textos, título y metaetiquetas de la página- por un lado; y de la relevancia off page, o bien relevancia en forma de links desde otros sitios, caracterizados por la cantidad y calidad de dichos backlinks.

No obstante, ya antes aun de que un buscador tenga la posibilidad de calcular la relevancia de una página, hay una condición anterior que dicha web debe cumplir: que el sitio web sea indexable.

Llamamos indexabilidad de una web a su facilidad de ser encontrada por los buscadores web, de ser apropiadamente rastreada en la totalidad de sus contenidos y de ser apropiadamente identificadas las categorías de busca en las que se debería incluir como desenlace.

Desde este punto, la mayor o bien menor relevancia de la página calculada en función de múltiples factores, influirá en la situación final que ocupará en los desenlaces que el buscador mostrará a los usuarios.

Existen muchas cosas y cambios que podemos hacer en nuestra página web a fin de que sea más atrayente a los buscadores:

Os dejamos quince buenos consejos, a cambio una pequeña accion social por vuestra parte 😉

[sociallocker]

Uno. Actuando como lo hace un buscador web:

Entre los primeros pasos para saber qué le agrada y qué no a un buscador consiste en ver su página web como la ve el robot que debe indexarla.

Existen diferentes simuladores de arañas o bien robots (spider simulators o bien robot simulators) que puede emplear. Son herramientas online que presentan la información que puede ser rastreada y empleada para calcular la relevancia.

SEO-search-enginesAsí vamos a ver que las de qué manera las imágenes, animaciones, contenido multimedia, Flash, etcétera desaparecen y queda solo el texto y los links. Ciertamente, los motores de búsqueda tienen presente esencialmente el contenido de texto de la página para calcular la relevancia, es por lo tanto que los más esencial de nuestra página es el contenido (texto eminentemente).

A estos efectos, resulta asimismo muy útil la vista “caché” que puede preguntar en los desenlaces de ciertos buscadores: se trata de la copia de su página que han guardado en sus servidores.

Aun, es posible aislar el texto libre llegando a una vista de su página similar a la lograda con las herramientas simuladoras de araña del parágrafo precedente. Siendo fundamental emplear este procedimiento para esto.

Si en la versión de caché de su página o bien tras emplear el simulador de araña verifica que no hay texto perceptible, debemos suponer que tenemos un grabe inconveniente, en tanto que la página no se marcha a indexar apropiadamente.

Seguramente su página web está hecha con Flash, o bien todo el texto es parte integrante de una imagen que integra el diseño así como el texto. En los dos casos la solución pasa por trastocar la programación original de su página web o bien crear una versión HTML opción alternativa que sí contenga texto relevante para el buscador.

Dos. Cada página una URL única, una dirección única.

URLs únicas para cada página, o bien lo que es exactamente lo mismo, cada página debe tener su y exclusiva dirección o bien URL a fin de que sea encontrada con facilidad.

En las páginas de desenlaces de los buscadores web, cada desenlace se identifica con un valor que debe ser único: es la dirección URL de la página. Se trata de exactamente la misma cadena de texto, números y símbolos que una vez en el campo de dirección del navegador le va a llevar a esa página (llamada asimismo URL de la página, que ha de ser única y exclusiva).

El valor de esa dirección es único: es como el documento de identidad de la página. Identifica a ese contenido y ninguna otra página en Internet puede tener la misma. No pueden haber 2 páginas que se puedan acceder con exactamente la misma dirección en el navegador.

Si navega por su página web y verifica que la dirección URL de su navegador no cambia, tiene un inconveniente.

Posiblemente su página web tenga muchos contenidos, mas los motores de búsqueda no podrán archivar cada página con una dirección única. Puede revisar si éste es su caso preguntando a los motores de búsqueda qué paginas conocen de su página web introduciendo el comando “site:www.sudominio.com” en el campo de busca. Al pulsar INTRO, los motores de búsqueda le van a devolver un listado con las páginas indizadas de su sitios. Son las páginas susceptibles de aparecer en los desenlaces de una busca (tema fundamental, en tanto que incluye la descripción que se empleará para hallar el contenido). Si al navegar por su sitios no cambiaba la dirección URL, posiblemente haya pocas páginas en este listado. Puede deberse a que su página web está programada con Flash, con AJAX o bien con marcos. En cualquiera de los 3 casos va a deber mudar radicalmente la programación de su página web para identificar cada página diferente con una dirección URL diferente y única. Solo de esta manera va a poder tener más ocasiones de que las diferentes páginas de su página web aparezcan en los desenlaces a diferentes buscas.

Tres. Los links rastreables. Links y enlaces que nos asisten a hallar el contenido de nuestra página web.

Los backlinks son muy importantes para los robots de los buscadores web, puesto que los emplean como una araña para localizar nuevo contenido web, nuevas páginas e inclusive nuevas webs. Los robots los emplean para llegar a nuevas páginas, con lo que su relevancia es esencial en una web o bien lugar.Link-Building1 sirueta

Cualquiera de los medios utilizados en el punto 1 nos servirá para poder ver los backlinks rastreables, aquellos que los robots proseguirán para seguir rastreando contenidos y más contenidos, páginas y más páginas web. En la versión caché los vamos a ver como texto azul subrayado, al paso que en el simulador de araña ocupará una sección específica del análisis.

Si al buscar “site:www.midominio.com” en el punto dos hallaba pocas páginas de su lugar catalogadas, asimismo puede deberse a que los links de sus páginas no son rastreables, con lo que debería aplicar a su página un simulador de robot para revisarlo.

Si fuera preciso, reemplace los menús desplegables programados con JavaScript o bien Flash por backlinks HTML normales, o duplique los backlinks más esenciales en una línea de backlinks ubicada en el pie de página. Con esta técnica conseguirá que todas y cada una sus páginas puedan ser rastreadas por los robots, y éstos pueden saltar de una página a otra de su página web y van a poder indexar todas y cada una. Además de esto preservará la navegabilidad por su página.

Cuatro. Cuidado con las ventanas pop-up

Es aún muy frecuente en los comercios electrónicos: navegamos por las secciones, llegamos a la familia de productos, consultamos una ficha de producto y, eh eureka, se abre en una nueva ventana más reducida y sin controles de navegación (asimismo llamadas ventana pop-up).

Las fichas de producto es la información más valiosa de cualquier web. Al abrirla en una nueva ventana de este modo corremos el peligro de que la apertura de la nueva ventana sea detenida por los bloqueadores que existen en múltiples navegadores. Por poner un ejemplo Mozilla Firefox y Safari, bloquean de manera automática estas ventanas pop-up, con lo que la información no se mostrará al usuario.

Por otra parte, y lo que es más esencial, impedimos que los robots lleguen y puedan indexar estas páginas que poseen información de gran valor y que aportan muy frecuentemente la síntesis del contenido de la página web, en tanto que los links que abren estas páginas no son en general rastreables.

Se trata de links programados con JavaScript que pueden proponer inconvenientes a los buscadores web. Si este es su caso, la solución es integrar las fichas de producto en el diseño general de sus sitios de manera que sean sencillamente una página más, sin precisar abrirlas en nueva ventana. O bien que formen una parte de la página primordial donde se muestran las peculiaridades de los productos.

Cinco. Temor a los subdirectorios: como organizar la información de una web.

Los robots de los buscadores web consideran por norma general que la página home de un sitios es la más esencial del lugar, y que el nivel de relevancia va reduciendo conforme aumenta la distancia en clics de ella, en consecuencia reduce de conformidad con la profundidad de la página web o bien de las páginas a las que accede.

El proceso de indexación empieza de esta forma por las páginas que ocupan los primeros niveles y cuesta más que llegue a las páginas que tienen pocos backlinks entrantes o bien están en los niveles más profundos de la navegación, o bien en la zona más esconde de la página web.

Es por este motivo esencial diseñar arquitecturas de la información con escasos niveles de profundidad, que evoluciones más horizontal que verticalmente. Y establecer trayectos de navegación alternos para los motores de búsqueda que dejen brotar páginas internas a pocos clics de la página home. Podemos hacerlo con apartados de backlinks relacionados, lo más buscado, productos señalados, etcétera

Seis. Impacta a los usuarios y deja indiferente a los buscadores: Flash, Silverlight…

Pese al tiempo que lleva presente en la Red la tecnología Flash aun presenta múltiples inconvenientes para los buscadores web, inconvenientes sobretodo de indexación.

La mayor parte de contenidos programados con estas tecnologías llamadas Rich Media son bien difíciles de indexar para los motores de búsqueda y, en dependencia de la manera en que está programada la página web, puede suponer que ninguno de nuestros contenidos sea rastreado, impidiendo que el sitio se indexe adecuadamente.

Por el momento, no hay más opción alternativa que programar una versión opción alternativa en código HTML que contenga suficiente contenido indexable y que, a nivel de usuario, pueda ofrecer los backlinks para dirigirse al contenido Rich Media, mas que cumpla con los requisitos que marcan los motores de búsqueda para una buena indexación.

Siete. Eludir los marcos o bien frames.

En la temporada en que el ancho de banda era un bien escaso, la utilización de marcos estaba totalmente justificado. Las páginas se dividían entre elementos fijos como navegación, cabecera, pie de página, etcétera y activos, como área de contenido. Las diferentes secciones se programaban en marcos de manera que, una vez cargado un sitios específico, solo tuviese que “viajar” la parte que variaba: la página que ocupaba el marco de contenido. Esta clase de páginas son simples de identificar por el hecho de que poseen controles de desplazamiento vertical o bien horizontal (scroll) que no ocupan toda la ventana del navegador.

Una web programada con marcos (frames o bien iframes) presenta muchos inconvenientes de indexabilidad: los motores de búsqueda en muchas ocasiones no pueden rastrear el contenido del marco. La dirección URL en esta clase de sitios en general no cambia. Y también, aun cuando las páginas de los marcos son indizadas, se corre el peligro de que el usuario, que hace clic en ellas como desenlace, se halle en una página “huérfana” que se abre en su navegador separada de su estructura de marcos pertinente y, por consiguiente, sin navegación, cabecera, pie de página, etcétera

El creciente empleo de la banda ancha hace inexcusable en la mayor parte de ocasiones la utilización de marcos. Dados los inconvenientes de indexabilidad que proponen, se aconseja convertir una estructura de marcos en páginas individuales que integren todos y cada uno de los elementos.

Ocho. Empleo de buscadores web internos

En muchos grandes portales, como los de medios o bien inmobiliarios, hay una cantidad de contenidos considerablemente mayor que la que es posible enlazar desde los diferentes menús de la página home o bien cabeceras de sección. Estos portales recurren al empleo de motores de búsqueda internos a fin de que los usuarios puedan filtrar los contenidos y acceder a las páginas que les resultan de interés. No obstante, los motores de búsqueda no pueden rellenar formularios de busca con criterios diferentes para llegar a estos contenidos.

Esto provoca que una parte muy significativa de estos contenidos no se indexe. La solución pasa por crear agrupaciones de contenidos que, mediante links, deje una navegación cara cada entre los contenidos bajo diferentes criterios. A veces, esta estructura de navegación se parecerá a un directorio, en el caso de un portal inmobiliario, o bien a un calendario, en el caso de un medio. En todo caso, la estrategia para asegurar la indexabilidad pasa por la creación de recorridos alternos de navegación a través de backlinks indexables para los motores de búsqueda.

Nueve. Páginas que pesan mucho al descargarse por los navegadores.

En los primeros años de los buscadores web, se aconsejaba que las páginas no fuesen muy pesadas, esto es, que su tamaño del archivo no fuese excesivo, para asegurar que los buscadores web llegarían a indexar todo el contenido de la página. Hoy en día, esta recomendación tiene menos sentido en tanto que la evolución de los buscadores web deja que podamos soslayar esta clase de restricciones.

Sin embargo, prosigue siendo una buena regla sostener el tamaño del archivo tan reducido como resulte posible, sin código basura y tan de conformidad con los estándares definidos por W3C como resulte posible. Esto garantizará que los motores de búsqueda lo rastreará adecuadamente y va a tener, además de esto, múltiples efectos colaterales muy ventajosos. Primeramente, una página muy extensa tiene muchas posibilidades de ser difusa en su contenido: charlará de múltiples cosas diferentes. Este género de página se posiciona peor que las páginas meridianamente enfocadas sobre un tema. Por otra parte, al reducir el tamaño del fichero hacemos más diligente la navegación de los usuarios por el sitio, lo que repercute en una experiencia más positiva.

Diez. El orden interno de la web: dominios, subdominios y subdirectorios

Su empresa es global, atiende muchos mercados y en muchos idiomas.¿De qué manera debería vertebrar su página web desde la perspectiva de la indexabilidad? Veamos cuáles podrían ser unas recomendaciones generales:

Los buscadores web premian a los sitios del mismo país, con lo que si actúa en múltiples países diferentes, podría ser interesante adquirir los dominios con extensión de país de cada mercado en los que actúa: midominio.es, midominio.co.uk, midominio.fr, etcétera

Si no se dirige a países diferentes, mas sí tiene contenidos en idiomas diferentes, podría ser apropiado reunirlos en subdominios, del tipo: english.sudominio.com, francais.sudominio.com, etcétera

Si lo único que le preocupa es vertebrar bien las secciones de su página web, entonces lo obvio es emplear los subdirectorios: www.sudominio.com/seccion1,www.sudominio.com/seccion2, etcétera

Once. Los redireccionamientos

A veces, va a haber adquirido los dominios en otros países solo para evitarse inconvenientes con contendientes infieles o bien con vistas a una posible expansión futura. ¿Cuál es la manera más conveniente de mandar el posible tráfico que se pueda producir en esos dominios cara su dominio primordial?¿Haciendo que todos apunten a exactamente la misma IP que el dominio primordial? Desde la perspectiva del usuario puede no haber diferencia, mas desde la perspectiva de los buscadores web, es mejor programar un redireccionamiento permanente trescientos uno desde cada uno de ellos de estos dominios cara el primordial. Este mensaje de redireccionamiento permanente comunica en un lenguaje que los buscadores web pueden comprender, que estos dominios por el momento no tienen contenido y que, realmente, el dominio primordial es cara el que se redirige la visita.

En la Red existen múltiples analizadores de cabeceras http con las que mismo puede revisar de qué manera responden sus dominios. Su dominio primordial debería contestar con un mensaje doscientos OK, al tiempo que sus dominios redirigidos deberían contestar con un mensaje trescientos uno.

Doce. Como hacer una página cuatrocientos cuatro eficiente

pagina 404En un sitios activo, con actualización usual de múltiples contenidos, es usual que, tarde o bien temprano, un backlink finalice apuntando a una página inexistente. Aun si su página web cuenta con algún género de control para advertir la existencia de backlinks rotos, siempre y en toda circunstancia posiblemente algún backlink en otra web o bien en los buscadores web apunte a una página que un buen día creyó que ya no precisaba. En estos casos, los servidores acostumbran a devolver un mensaje genérico de fallo con el código cuatrocientos cuatro, que señala que esa página no existe.

Este mensaje genérico se puede personalizar de manera que el servidor devuelva una página adecuadamente maquetada con el diseño corporativo y que informe del mismo modo de que el contenido demandado ya no existe. Sin embargo, existen poderosos motivos para el usuario y para los motores de búsqueda por los que aparte de dicho mensaje de fallo debería agregar asimismo un pequeño directorio de links con vínculos que apunten cara los primordiales conjuntos de contenido del lugar. Sus usuarios interpretarán esto como: “De pacto, la página que procuraba ya no existe, mas esto es lo que debemos ofrecerle a fin de que prosiga con nosotros y pueda proseguir con su visita.” Y los robots de los motores de búsqueda van a tener nuevas “piedrecitas” para continuar saltando a nuevos contenidos que indexar en su página web. En los dos casos, su página web va a salir ganando.

Trece. El mapa del sitio

Pese a que acostumbramos a leer los libros de una forma secuencial, de principio a fin, es incuestionable que el índice juega un papel esencial en el momento de relocalizar algunos contenidos después. El índice es, por una parte, un enorme esquema que recoge de modo resumido y claro todos y cada uno de los contenidos del libro y, por otro, una forma de saltar a determinado contenido específico a través del número de página. De forma afín, el mapa del lugar deja ver en una única página el esquema completo del sitios en el que estamos, y nos deja, por medio de sus links, “saltar” de manera rápida hacia determinado contenido sin emplear el menú de navegación. El mapa del lugar es, puesto que, muy útil para los usuarios.

Más asimismo es bien interesante desde la perspectiva de la indexabilidad. Los menús de navegación solo dejan tener unas pocas –generalmente, menos de diez- opciones en el menú primordial. Desde estas pocas opciones, a través de submenús, menús desplegables, etcétera podemos acceder a los contenidos siguientes. Esto aumenta la distancia en clics de determinados contenidos con respecto a la página primordial, lo que, como ya hemos visto, complica su indexación. El mapa del lugar deja enseñar, en una sola página, un número considerablemente mayor de links que se hallan a un solo clic de la página primordial. Esto deja una mejor circulación del jugo de popularidad desde la página home a las internas y que la circulación del robot de los buscadores web por su sitios sea considerablemente más simple.

Catorce. El fichero robots.txt

Todo cuanto llevamos dicho es para asegurar que los motores de búsqueda van a poder indexar todos y cada uno de los contenidos de nuestra página web. Pero ¿Qué podemos hacer si exactamente deseamos lo opuesto, que no indexen determinados contenidos? Hay un tipo del archivo singular llamado robots.txt en donde sencillamente podemos precisar qué áreas, subdirectorios o bien ficheros de nuestra página web no habrían de ser indizados por los buscadores web.

Es esencial programar apropiadamente este fichero sobre todo en los sistemas gestores de contenido (Content Management System) que lo producen de forma automatizada, en tanto que puede darse el en el caso de que accidentariamente se incluyan como no indexables áreas que sí habrían de ser rastreadas.

Quince. Como hacer un fichero sitemap

sitemap_07Para finalizar, vamos a nombrar otro tipo del archivo singular, se trata del fichero sitemap, que acostumbra a ser un archivo con código XML invisible para los usuarios mas que los motores de búsqueda consultarán para descubrir todas y cada una de las páginas de su página web que deseamos que indexen. Existen múltiples herramientas en Internet para producir de manera fácil el código de este fichero. Una vez generado y subido al servidor, podemos darlo de alta en los buscadores web a través de la interfaz de herramientas para el administrador web de Yahoo! o bien de Google, o bien introduciendo una simple línea “sitemap:http://www.midominio.com/misitemap.xml” en el fichero robots.txt, para Live Search.

En grandes portales, el uso del fichero sitemap puede ser la estrategia más eficiente para lograr altos niveles de indexación.

[/sociallocker]

Con todo a la vista

El propósito de la indexabilidad es asegurar que una web aprovecha todo su potencial de generación de tráfico.

Para esto, se debe asegurar que todos de sus contenidos han tenido la ocasión de ser indizados por los motores de búsqueda. Eso quiere decir que se ha rastreado todo el texto, que se han identificado adecuadamente las categorías de busca donde deben aparecer y que, en lo posible, su relevancia es mayor que la de los contenidos análogos de otros sitios con los que competirán en las páginas de desenlaces de un buscador.

Crea que cada página de su página web es como un anzuelo aguardando en el mar de los buscadores: si solo tiene una página indizada, solo tiene un anzuelo. Si tiene unas pocas páginas en los índices, es tal y como si tuviese múltiples anzuelos aguardando la presa. Si todas y cada una de las páginas de su página web están indizadas, su página web va a ser como una red de arrastre: va a estar aprovechando todo su potencial de generación de tráfico. Aplique estos 15 puntos y seguro que su página web se parecerá más a esa red de arrastre de potenciales clientes del servicio.