Introducción y principios de SEO. Los buscadores
Esta parte esta mas bien dedicada a mejorar la posición de tu pagina web que a tener beneficios con los afiliados, es interesante pero no es necesario para tener ingrsos con los afiliados sino mas bien para vender tus propios productos
En los primeros y mas tempranos días en el desarrollo de Internet, los usuarios eran muchos menos y la cantidad de información era relativamente pequeña. El acceso estaba restringido a empleados de varias universidades y laboratorios que usaban Internet para acceder a información científica. En aquellos tiempos, el problema de encontrar información en Internet no era tan crítico como lo es ahora.
Los directorios era uno de los primeros métodos usados para facilitar el acceso a información en la red. Los enlaces a estos recursos eran agrupados por temas. Yahoo fue el primer proyecto de este tipo abierto en Abril de 1994. En este directorio se podían encontrar páginas Web que el público buscaba sobre algo en particular. No era todavía lo que conocemos como buscador, ya que los recursos se limitaban a lo que estaba incluido en el directorio. Temática que se había añadido por un grupo de personas dedicadas al desarrollo de este servicio.
Estos directorios de enlaces se han usado mucho en el pasado, pero hoy en día han perdido su popularidad. La razón es simple, incluso los directorios más modernos con muchos recursos, proveen solo de una ínfima parte de la información disponible en Internet. Por ejemplo, actualmente, el directorio mas grande de la red es DMOZ (Open directory Proyect). Este directorio contiene información de la menos 5 millones de recursos. Compara esto con la base de datos de Google la cual contiene más de 8 billones de documentos.
El proyecto Webcrawler empezó en 1994 y fue el primer buscador que empezó a funcionar. Los buscadores Lycos y Altavista aparecieron en 1995 siendo este segundo, el buscador mas importante durante años. En 1997 Sergey Brin y Larry Page crean Google como proyecto de investigación en la universidad de Stanford. Ahora Google es el buscador más popular en el mundo.
En la actualidad hay 3 grandes buscadores a la cabeza – Google, Yahoo y MSN. Cada uno de ellos tiene sus propias bases de datos y algoritmos de búsqueda. Otros buscadores usan resultados originados de estos tres buscadores, como por ejemplo AOL (de Google) y Alta Vista y Lycos (de Yahoo).
Arquitectura de los buscadores
Antes de meternos de llenos a SEO, se necesita conocer los componentes que forman los buscadores y su arquitectura.
Algunos de los componentes siguientes pueden diferir e implementarse de forma diferente, sin embargo todos son heredados para todos los buscadores y los principios SEO son los mismos.
Spider o araña - Es un programa tipo navegador que descarga páginas Web. La diferencia es que un navegador muestra la información en una página con texto, gráficos, etc, mientras que el spider trabaja directamente con el código HTML de la página.
Crawler – Es un programa que automáticamente sigue y encuentra todos los enlaces en cada una de las páginas Web. Esto permite guiar al spider por donde debe ir evaluando los enlaces. El crawler intenta encontrar documentos que no son todavía conocidos por el buscador.
Indexador – Un programa que analiza páginas Web descargadas por el crawler y el spider. Analiza los diferentes elementos, tales como texto, cabeceras, estructura, etiquetas HTML, etc.
Base de datos – Donde se almacenan las páginas descargadas y procesadas. Aquí se guardan todas las páginas encontradas que se han analizado.
Resultados de búsqueda – Los resultados valoran las páginas. Determina qué páginas coinciden con la petición del usuario y en que orden se deberían listar las páginas. Esto se realiza acorde con los algoritmos de valoración de los buscadores. Este punto es el que nos marca lo que se llama Page Rank (PR) y del cual hablaremos mas adelante.
Servidor Web – Es la Web visible del buscador donde tenemos una ventana de búsqueda donde el visitante puede especificar lo que quiere buscar o lo que le interesa. El servidor es responsable de mostrar los resultados al usuario en su navegador.
Introducción y principios de SEO. Factores de valoración y ranking
Diferentes factores pueden influir la posición de una Web en el resultado de las búsquedas. Pueden ser divididas en factores de valoración internas y externas. Las internas son aquellas que son controladas por los propios creadores de la Web y que usan SEO, lo cual vamos a describir a continuación.
SEO: Factores internos
1 – Cantidad de texto en la página
Esta parte esta mas bien dedicada a mejorar la posición de tu pagina web que a tener beneficios con los afiliados, es interesante pero no es necesario para tener ingrsos con los afiliados sino mas bien para vender tus propios productos
En los primeros y mas tempranos días en el desarrollo de Internet, los usuarios eran muchos menos y la cantidad de información era relativamente pequeña. El acceso estaba restringido a empleados de varias universidades y laboratorios que usaban Internet para acceder a información científica. En aquellos tiempos, el problema de encontrar información en Internet no era tan crítico como lo es ahora.
Los directorios era uno de los primeros métodos usados para facilitar el acceso a información en la red. Los enlaces a estos recursos eran agrupados por temas. Yahoo fue el primer proyecto de este tipo abierto en Abril de 1994. En este directorio se podían encontrar páginas Web que el público buscaba sobre algo en particular. No era todavía lo que conocemos como buscador, ya que los recursos se limitaban a lo que estaba incluido en el directorio. Temática que se había añadido por un grupo de personas dedicadas al desarrollo de este servicio.
Estos directorios de enlaces se han usado mucho en el pasado, pero hoy en día han perdido su popularidad. La razón es simple, incluso los directorios más modernos con muchos recursos, proveen solo de una ínfima parte de la información disponible en Internet. Por ejemplo, actualmente, el directorio mas grande de la red es DMOZ (Open directory Proyect). Este directorio contiene información de la menos 5 millones de recursos. Compara esto con la base de datos de Google la cual contiene más de 8 billones de documentos.
El proyecto Webcrawler empezó en 1994 y fue el primer buscador que empezó a funcionar. Los buscadores Lycos y Altavista aparecieron en 1995 siendo este segundo, el buscador mas importante durante años. En 1997 Sergey Brin y Larry Page crean Google como proyecto de investigación en la universidad de Stanford. Ahora Google es el buscador más popular en el mundo.
En la actualidad hay 3 grandes buscadores a la cabeza – Google, Yahoo y MSN. Cada uno de ellos tiene sus propias bases de datos y algoritmos de búsqueda. Otros buscadores usan resultados originados de estos tres buscadores, como por ejemplo AOL (de Google) y Alta Vista y Lycos (de Yahoo).
Arquitectura de los buscadores
Antes de meternos de llenos a SEO, se necesita conocer los componentes que forman los buscadores y su arquitectura.
Algunos de los componentes siguientes pueden diferir e implementarse de forma diferente, sin embargo todos son heredados para todos los buscadores y los principios SEO son los mismos.
Spider o araña - Es un programa tipo navegador que descarga páginas Web. La diferencia es que un navegador muestra la información en una página con texto, gráficos, etc, mientras que el spider trabaja directamente con el código HTML de la página.
Crawler – Es un programa que automáticamente sigue y encuentra todos los enlaces en cada una de las páginas Web. Esto permite guiar al spider por donde debe ir evaluando los enlaces. El crawler intenta encontrar documentos que no son todavía conocidos por el buscador.
Indexador – Un programa que analiza páginas Web descargadas por el crawler y el spider. Analiza los diferentes elementos, tales como texto, cabeceras, estructura, etiquetas HTML, etc.
Base de datos – Donde se almacenan las páginas descargadas y procesadas. Aquí se guardan todas las páginas encontradas que se han analizado.
Resultados de búsqueda – Los resultados valoran las páginas. Determina qué páginas coinciden con la petición del usuario y en que orden se deberían listar las páginas. Esto se realiza acorde con los algoritmos de valoración de los buscadores. Este punto es el que nos marca lo que se llama Page Rank (PR) y del cual hablaremos mas adelante.
Servidor Web – Es la Web visible del buscador donde tenemos una ventana de búsqueda donde el visitante puede especificar lo que quiere buscar o lo que le interesa. El servidor es responsable de mostrar los resultados al usuario en su navegador.
Introducción y principios de SEO. Factores de valoración y ranking
Diferentes factores pueden influir la posición de una Web en el resultado de las búsquedas. Pueden ser divididas en factores de valoración internas y externas. Las internas son aquellas que son controladas por los propios creadores de la Web y que usan SEO, lo cual vamos a describir a continuación.
SEO: Factores internos
1 – Cantidad de texto en la página
Una página consistente en unas pocas frases es menos probable que aparezca en las primeras posiciones. Los buscadores favorecen los sitios que tienen un alto contenido de información. Debes intentar siempre incrementar el contenido de texto en tu Web. La cantidad de palabras por cada página varías aunque se aconseja un mínimo de 300. Una Web formada por páginas con mucho contenido de texto, facilitará que el buscador te encuentre y te envíe mas visitas.
2 – Número de keyword (palabras o frases clave) en la página
Las keyword deben ser usadas al menos 3 o 4 veces a lo largo del texto de la página. Debemos tener en cuenta el tamaño de la página. Cuanto más grande sea, más veces podemos repetir nuestras keyword. Las frases claves deben ser distribuidas por el texto igual que las keyword únicas. Dichas frases son las que la gente inserta en los buscadores para encontrar lo que le interesa.
Si nos coinciden varias keyword en la misma frase, debemos utilizarlas también por separado para usar todo el potencial de esa palabra clave. Por ejemplo, si tenemos la frase “pantalones y chaquetas” y queremos optimizar nuestra página Web con ella, la repetiremos un número de veces por nuestro texto. “Pantalones” y “chaquetas” por si solas son keyword a considerar, por lo que también tenemos que repetirlas en el texto, independientemente de la frase anterior. Esa es la idea de densidad de keywords.
3 – Densidad de keywords y SEO
La densidad de keywords en páginas Web es la frecuencia con que se mide la aparición de una o varias palabras en el texto, expresado como un porcentaje. Por ejemplo, si una palabra específica aparece 5 veces en una página de 100 palabras, la densidad de keywords es de un 5 %. Si la densidad de la keyword es demasiado baja, el buscador no la prestará demasiada atención. Si la densidad es demasiado alta el buscador activará su filtro anti spam. Si esto ocurre, la página podría ser penalizada y las posiciones en el buscador bajarán deliberadamente.
El valor óptimo para aplicar densidad de palabras es más o menos de un 5-7 %. Si llegamos al 8 % no tiene porque pasar nada aunque siempre tenemos que tener SEO en mente y no abusar de nuestras palabras clave. Esto podría afectar nuestro posicionamiento.
4 – Colocación de las keyword en la página
Hay una regla de oro para los expertos SEO – lo mas cercano que esté una keyword o frase clave al principio del documento, mas importante y significativo se volverá para el buscador.
5 – Formato de texto y SEO
Los buscadores prestan especial atención al texto de la página que remarcada o con un formato determinado. Las keyword se deben usar en las cabeceras. Las cabeceras “h1” y “h2” son las más efectivas. Dentro del texto, resalta con negrita o cursiva las keyword de un modo natural, no todo el texto. Esto ayudará al buscador saber en que consiste nuestra Web.
6 – El título
Esta es una de las etiquetas más importantes para los buscadores. En el código HTML es la que aparece al principio de la página Web definido como "title"
. Es imprescindible que se usen las palabras y frases clave en el titulo como norma. El enlace a tu sitio que se muestra en los resultados de los buscadores contiene texto sacado del título. Por ello debe también ser informativo y atractivo para el usuario. Como regla, es suficiente que la etiqueta del título tenga entre 50 y 80 caracteres.
7 – Inclusión de keywords en los enlaces
Esto es una regla de SEO. Usa palabras y frases clave en el texto de tus enlaces que hagan referencia a otras páginas DENTRO de tu sitio Web. Procura que también estas palabras calve se incluyan en enlaces que apuntan a ti. Esto mejorará tu PR.
8 – el atributo <
Todas las imágenes en una página Web tienen una opción especial conocida como texto alternativo. Se especifica usando la etiqueta HTML <
Google tiene en cuenta este texto en la etiqueta de las imágenes que apuntan a otras páginas. Esta práctica no es imprescindible en SEO pero puede resultar de ayuda.
9 – Etiqueta descripción <
Esto se utiliza para especificar una descripción de ka página. No influencia el proceso de ranking pero es muy importante. Muchos buscadores, incluidos Google, muestran información de esta etiqueta en sus resultados de búsqueda si está presente en la página Web.
La descripción debe ser breve, pero atractiva y descriptiva. Debe contener las keyword que usas para optimizar tu página. Un visitante puede elegir ir a una página u otra dependiendo de lo que mas le atraiga en la descripción.
10 – Etiqueta <
Inicialmente se usaba para especificar palabras y frases clave, pero ya no es usada por los buscadores en la actualidad. En proyectos SEO se suele ignorar, aunque si miras el código fuente, podrás ver que existe en muchas páginas todavía. Por ello, es aconsejable seguir utilizándola por si se vuelve a usar algún día o por si acaso algún buscador la sigue leyendo.
SEO: Factores internos: Estructura del sitio
1 – Número de páginas
Una regla en SEO es cuanto más, mejor. Aumentando el número de páginas en tu sitio Web, aumenta su visibilidad en los buscadores. Además, si añades constantemente información nueva a tu Web, los buscadores consideran esto positivamente, dando a la Web un mayor valor y por tanto un mejor posicionamiento. Deberías publicar regularmente información en ti sitio Web, como artículos, consejos, revisiones, entrevistas, etc.
2 – Menú de navegación
Todos los sitios Web tienen menú de navegación. Usa tus keyword en los enlaces del menú. Esto dará un mayor significado SEO a las páginas a las que van dirigidas.
3 – Palabras clave en el nombre de las páginas
Algunos expertos SEO consideran que usando keywords en el nombre de la página del fichero, puede dar buenos resultados en el posicionamiento de los buscadores.
4 - Subdirectorios
Si tu sitio Web no tiene demasiadas páginas, es mejor ponerlas todas el directorio raíz de tu Web. Los buscadores consideran estas páginas más importantes que las que están en subdirectorios.
5 – Página principal
Optimiza tu página principal, es decir, el index.html o el que tengas con el nombre de dominio, con las combinaciones de palabras clave más importantes. Esta página tiene muchas posibilidades de subir a las primeras posiciones de los buscadores y ser el punto de partida para ir a otras páginas de tu Web.
Algunos puntos que debemos evitar
Existen algunas prácticas que puede causar el efecto contrario de los que buscamos, que en este caso es atraer la atención de los buscadores, y por tanto de visitantes.
Cuando visitamos páginas Web, sobre todo de compañías o empresas, vemos que algunas tiene su logo ocupando prácticamente toda la página. Esto no debe hacerse. Los gráficos no son demasiado queridos por los buscadores y no los interpretan bien. Nunca sustituyas gráficos por texto. Si tienes que poner una cabecera con un gráfico, que no sea demasiado grande e incluye tus palabras clave también en la cabecera.
Los menús de navegación formados por gráficos tampoco son muy aconsejables. Hay que recordar que en el menú de navegación tienen que ir incluidas nuestras keyword para que las vea el buscador. Los menús con gráficos no ayudan a esto. Si no tienes mas remedio que usar gráficos en el menú, recuerda utilizar la etiqueta <
Evita en lo posible abusar de Javascript en tu página Web. Los buscadores no pueden leer o ejecutar scripts.
Intenta evita las redirecciones de páginas dentro de los posible. Los robots que visitan tu Web para indexar las páginas se pueden ver en apuros si lo envías de un sitio a otro. Solo utiliza las redirecciones cuando haya una buena razón para ello.
Texto oculto. Un método engañoso poco aconsejable
Este es uno de los métodos ilícitos que más se ha utilizado como en SEO para engañar a los buscadores. El texto oculto, por ejemplo cuando el color del texto coincide con el color del fondo, permite a un Webmaster llenar la página de palabras y frases clave sin afectar la lógica y la estética del entorno. Este texto es invisible para las personas pero será vista por los robots de búsqueda. Este método no está permitido y puede resultar en el baneo del sitio Web, es decir, podría ser excluida de la base de datos del buscador.
SEO: Factores externos
1 – Importancia de los enlaces entrantes de otras Webs
Como has podido observar, varios factores influyen el proceso de posicionamiento de los cuales algunos son controlados por el dueño de la Web. Si estos fueran los únicos factores, sería imposible para los buscadores distinguir entre un documento de verdadera calidad y una página creada específicamente para posicionarse bien, pero sin un buen contenido. Por esta razón, un análisis de los enlaces entrantes es un sistema de valoración para medir el ranking de una Web. Este es un factor que no está controlado por el dueño de dicha Web.
Es lógico pensar que las Web interesantes tendrán mas enlaces entrantes. Esto es porque los administradores de otros sitios en Internet, aceptarán tener links a otras Web si creen que ofrecen recursos de interés. El buscador evaluará estos enlaces para valorar la Web.
Hay que tener en cuenta que no solo se trata de tener muchos enlaces, sino de que sean de importancia y valor. Los buscadores usan algoritmos que calculan el número e importancia de los enlaces entrantes y con los resultados hacen su propia estimación. En muchas ocasiones, un solo enlace de una página bien considerada, puede valer más que 10 que vienen de páginas mediocres o menos conocidas.
2 – Texto del enlace (anchor text)
El texto que va incluido en el texto del enlace es muy importante. Este texto es el que va entre las etiquetas <> y <> y se muestra como el texto que lees y sobre el que tienes que pinchar para ir a la siguiente página. Si este texto contiene las keyword apropiadas, los buscadores entenderá que el enlace lleva a información de útil de y de valor.
Una cosa que debemos saber es que los buscadores siempre darán más importancia a enlaces entrantes provenientes de Webs con tu misma temática. Intenta que los enlaces que consigas coincidan con tu Web, o por lo menos que tengan una categoría dedicada a tu temática.
3 – Google PageRank
PR (PageRank) es una valoración que da Google a las páginas Web para conocer su importancia y relevancia. Se valora las páginas dándoles un número del 1 al 10. No es el único método que usa Google para dar un ranking a las Web pero es un factor a tener en cuenta. Últimamente se está hablando mucho de si realmente sirve en términos SEO y si tener un PR alto nos ayuda a posicionarnos mejor. Bueno, lo que está claro es que existe y Google lo utiliza para algo. Tener un PR alto es mejor que tenerlo bajo.
Aumentar la popularidad de los enlaces
4 – Enviar la Web a directorios
En Internet, muchos directorios contienen enlaces a otros recursos de red agrupados por temas. Estos directorios pueden ser de pago o gratuitos, puede que te pidan un enlaces a cambio o simplemente no haga falta. El número de visitantes a estos directorios no suele ser excesivamente grande por lo que no recibirás muchas visitas derivados de ellos. Sin embargo, los buscadores cuentan los enlaces de estos directorios y esto beneficiará el posicionamiento de tu Web.
Es importante que los enlaces que se creen a tu Web sean directos, es decir, construidos con el código HTML correspondiente, y NO redirigidos por medio de scripts u otros medios.
Da preferencia al registro manual en directorios sobre los registros automáticos.
Como se ha dicho, enviar tu Web a directorios en si mismo no afecta de una forma excesiva a tu Web, pero incrementa su visibilidad para los buscadores. Es una buena idea dedicarle unas horas a la semana a incluir tu Web en directorios, aunque se aconseja hacerlo de forma gradual, por ejemplo en grupos de 10 cada vez.
5 – Directorio DMOZ
DMOZ es el directorio más grande de Internet. Está distribuido en muchas otros directorios lo cual significa que si envías tu Web y te la aceptan, conseguirás un valioso enlace del propio directorio y docenas de otros links de recursos relacionados. Por ello, el directorio DMOZ tiene mucha importancia en SEO. Puedes visitarlo en www.dmoz.org y visitar sus distintas categorías.
No es fácil ser incluido en el directorio DMOZ. Tu sitio puede que aparezca al poco de ser enviado o puede tardar meses en ser incluido. Hay que tener paciencia; si has hecho la inclusión de manera adecuada y en la categoría que corresponde, acabará apareciendo. DMOZ es gratuito para todas las Web incluidas las comerciales.
6 – Intercambio de enlaces
Se trata de que tengas en tu Web una página dedicada especialmente a publicar enlaces apuntando a otras Web, y su vez, los otros sitios apuntan sus enlaces hacia ti. Se dice que a los buscadores no les gusta demasiado este tipo de intercambio de enlaces porque pueden distorsionar los resultados de las búsquedas. Sin embargo, sigue siendo una manera efectiva de subir la popularidad de los enlaces. De todos modos, no está de mas seguir estas normas intercambiando enlaces:
Intercambia enlaces con Webs de temática similar a la tuya.
Que la otra Web esté bien considerada. Que tenga un PR de al menos 3 y que el número de links en la página que enlaza con la tuya, no exceda de 30.
Crea una página de enlaces en tu sitio Web que está dedicada solamente a esta tarea. Esto ayudará al buscador a verificar en los enlaces si dar lugar a confusiones.
Revisa periódicamente los enlaces que intercambies. Algunos webmaster no mantiene tus enlaces durante mucho tiempo por lo que no está de mas revisar tus enlaces externos de vez en cuando.
Introducción y principios de SEO. Indexación de un sitio Web
Antes de que una Web aparezca en los resultados de búsqueda, un buscador tiene que indexarla, es decir, incluirla en el índice. Esto ocurrirá cuando una Web sea visitada y analizada por un robot de búsqueda que comprobará la importancia de la información y la enviará a la base de datos del buscador. Si una página está presente en el índice, ya puede aparecer en los resultados de búsqueda que realicen los usuarios de Internet. De otra manera, el buscador no puede saber nada de la Web y su contenido ni saber que existe.
Muchos sitios Webs, con cientos y miles de páginas formándolas, son indexados de forma correcta por los buscadores. Sin embargo. Es conveniente recordar dos de las maneras principales para presentar una nueva Web a un buscador:
Registra manualmente la Web en el apartado del buscador correspondiente. Solo necesitas añadir la página principal, el robot del buscador encontrará el resto siguiendo los enlaces.
Deja que el propio buscador te encuentre. Ayudará tener creados algunos enlaces entrantes hacia tu Web.
Como habrás comprobado, hay que preparar la Web para que el robot pueda recorrer tu Web sin problemas y obstáculos. A continuación se dan algunos consejos para preparar tu Web para la visita del robot:
Diseña tu Web de tal forma que las páginas creadas no estén a mas de 3 clics de la página principal. Siempre ayuda crear un mapa del sitio donde se incluyan todas las páginas de la Web.
Los buscadores no indexan mas de 100/200 KB de texto de una página. Por ello se aconseja NO usar páginas de más de 100 KB de texto si queremos que se indexen completamente.
Puedes manipular el comportamiento de los robots de búsqueda usando en el código de tu Web el fichero robots.txt. Este fichero permite o prohíbe a los robots indexar páginas específicas de tu Web.
Las bases de datos de los buscadores están constantemente siendo actualizados, por lo que la información que contienen puede variar. Por este motivo, algunas veces el número de páginas indexadas puede variar. Uno de las razones por las que una página puede desparecer temporalmente del índice, es la falta de disponibilidad del servidor. Esto significa que el robot de búsqueda no accedía a la base de datos cuando trataba de indexar páginas del sitio. Una vez que el servidor funcione de nuevo, la Web reaparecerá en el índice.
Introducción y principios de SEO. Elegir keywords
1 - Primer paso para elegir keywords
Elegir las palabras y frases clave (keywords) debe ser la primera cosa que hagas cuando construyas un sitio Web. Es una práctica interesante tener la lista de keywords disponible para incorporar en tu Web antes de que empieces a componerla. Existen algunos sitios en Internet donde te ayudarán a definir las keywords que te podrán servir de ayuda. Para habla inglesa la mejor sin duda es wordtracker y como alternativa tenemos overture (en varios idiomas). Sin embargo, los datos que estos sitios dan pueden variar de la realidad por lo que debemos tener esto en cuenta.
Una vez que tengas hecha tu lista, puedes visitar Webs de una temática parecida a la que vas a crear e investigar que keywords están usando. Seguramente podrás encontrar keywords que te sean de utilidad y que puedas usar.
2 – Tipos de keywords a usar
Hay dos tipos de estrategias para usar con palabras clave – optimizar con un pequeño número de keywords de alta popularidad o por el contrario, optimizarla con un gran número de palabras menos populares. Normalmente se combinan ambas estrategias.
La desventaja de las keywords más populares y las que atraen más visitantes, es que son muy competitivas. Es frecuente que una Web nueva no consiga buenos resultados si solo es optimizada con estas keyword tan requeridas. El método que mejor resultados da es usar keywords más específicas y no tan generales. Habrá muchas mas opciones para que aparezcas en los buscadores con esas palabras menos populares.
Por poner un ejemplo, la palabra “ordenadores” es muy utilizada como keyword y es bastante popular. Al mismo tiempo es una palabra clave poco recomendable ya que hay otras Web ya optimizadas con ella. Las nuevas Webs de ordenadores deberían buscar otras keywords al estilo “buenos tutoriales sobre ordenadores”. La keyword principal sigue apareciendo pero el formato de la búsqueda cambia.
3 – Averiguando la competencia
Como se ha comentado, las keyword mas populares son las que mas competencia tiene, es decir, si tienes una Web nueva y compites por una de estas palabras (por ejemplo, ordenador), tu Web aparecerá en la posición 3000 en los buscadores. Hay muchas Web por delante de ti que aparecerán antes con esa palabra.
Se sabe que si no apareces en las dos primeras páginas de los buscadores, alrededor de las primeras 20 posiciones, hay pocas probabilidades de que los internautas te encuentren. Por esto mismo, debes conseguir una idea realística de la competencia de tu Web. Para evaluar esta competencia hay que hacer una estimación de las primeras 10 Web que aparecen por ese término o keyword.
El PR de las páginas que aparecen en los resultados de búsqueda.
El promedio de enlaces a estos sitios. Hay varias formas y herramientas de ver esto, como por ejemplo Alexa .
El número de páginas en Internet que contiene el término referido. Esto lo vemos en los resultados mostrados en la parte superior del buscador. Cuanto mayor sea el número, mayor la popularidad.
Para ver el número exacto de coincidencias que contienen esa keyword o frase en Internet, podemos poner el término entre comillas y así aparecerán las Webs con esa frase tal como la hemos escrito.
Siguiendo estos procedimientos, podremos evaluar lo difícil que será conseguir llegar a los primeros puestos con esa particular keyword. Dependiendo de los resultados comprobaremos si merece la pena optimizar nuestra Web con unas u otras palabras o frases clave.
Introducción y principios de SEO. Google Sandbox
A principios de 2004, empieza a oírse un término surgido de especialistas SEO llamado Google Sandbox o caja de arena. Era el nombre de un nuevo filtro de Google que excluye nuevos sitios Web de los resultados de búsquedas. Como consecuencia de este filtro, muchas Web no aparecen en los buscadores por casi ningún término de búsqueda. Esto ocurre incluso con sitios con contenido de alta calidad y promocionado con técnicas legítimas.
No queda demasiado claro hasta que punto este filtro afecta a Webs de distintas regiones y países. Se entiende que la misión de Google Sandbox es eliminar Webs que usan el spam para autopromocionarse, o Webs de contenido repetido o de temática muy corriente.
De momento, lo que se sabe de este cajón de arena es que:
Se aplica a Webs nuevas. Un sitio Web es colocado en el Sandbox y se deja ahí por algún tiempo hasta que el buscador empieza a tratarlo como una Web normal. No se sabe exactamente el tiempo de permanencia hasta que es liberada, pero puede variar entre semanas y algunos meses.
Se piensa que Google Sandbox libera las Web en grupos y no de manera individual. Esto significa que dependiendo en el grupo que se te coloque, estarás mas tiempo o menos dependiendo de la antigüedad del grupo. Esto no se sabe total certeza, pero hay indicios que lo demuestran.
Lo mejor y mas aconsejable cuando sospechas que estás en el cajón de arena, es decir, no apareces en los buscadores después de unos meses, es tener paciencia y aprovechar ese tiempo para mejorar tu Web, incrementar contendido, optimizar con mas keyword, etc. Una vez que tu Web sea liberada del Sandbox, notarás un importante incremento en las posiciones de los buscadores. A partir de ese momento, las visitas irán incrementándose gradualmente.
Últimas conclusiones y consejos SEO
Para terminar el tutorial SEO, mostraremos una colección de información general con algunas ideas y consejos que pueden resultar útiles aplicando SEO.
Es una realidad que los buscadores tratan mejor a las páginas Web antiguas. Ten paciencia, el tiempo está a tu favor. Mientras sigas mejorando tu sitio y añadiendo contenido, los buscadores irán enviando cada vez más tráfico y dándote mejor posiciones.
Los buscadores prefieren las Web que están en continuo desarrollo. Estas Webs son aquellas en las que nuevas páginas y nuevo contenido aparece regularmente.
Los buscadores saben lo a menudo que un enlace es seleccionado en los resultados de búsqueda. Si un enlace no es demasiado elegido, significa que la página no es de mucho interés y por tanto la valoración será menor.
Los buscadores pueden interpretar un incremento rápido de enlaces entrantes como una forma de promoción engañosa. Por esto antes se ha comentado de ir incluyendo links de una forma gradual y siempre añadiendo el mismo número de enlaces cada vez. Los buscadores podrían perjudicar una Web si detecta enlaces fraudulentos.
Los buscadores chequean información de los dueños de los dominios que analizan. Enlaces externos pertenecientes de sitios Web, todos pertenecientes al mismo dueño, no son muy valorados. Hay que tener en cuenta que el buscador también puede interpretar que se trata de una granja de enlaces (muchas Web apuntándose entre si). Google puede banear a todas las Web que pertenezcan a la granja.
No hay comentarios:
Publicar un comentario
comenta, que opinar es gratis