Posicionamiento en buscadores

De Wikipedia, la enciclopedia libre
(Redirigido desde «Posicionamiento web»)
Saltar a: navegación, búsqueda

El posicionamiento en buscadores u Optimización de motores de búsqueda es el proceso de mejorar la visibilidad de un sitio web en los resultados orgánicos de los diferentes buscadores. También es frecuente nombrarlo por su título inglés, SEO (Search Engine Optimization). También es común llamarlo posicionamiento web, aunque este término no resulta tan preciso, ya que engloba otras fuentes de tráfico fuera de los motores de búsqueda.

En los últimos años, la generalización de las estrategias de posicionamiento en buscadores y su implementación en un mayor número de websites, han logrado generar la consciencia que ocupar los primeros puestos en las páginas de resultados puede ser crucial para un sitio.[1]

En los últimos años, los motores de búsqueda están incorporando nuevas variables que es necesario tener en cuenta para la optimización de un sitio web. Búsquedas locales, o búsquedas personalizadas son algunos de estos nuevos tipos de posicionamiento.

Historia[editar]

Los administradores de páginas web y proveedores de contenido comenzaron a optimizar sitios web en los motores de búsqueda a mediados de la década de 1990, tan pronto los motores de búsqueda comenzaban a catalogar la primera Internet.

Al comienzo, todo lo que los administradores de páginas web tenían que hacer era enviar la dirección de una página web, o URL, a los diferentes motores, los cuales enviarían una Araña web para inspeccionar esa web, extraer los vínculos hacia otras páginas de esa web y devolver la información recogida para ser indexada. El proceso involucra a un Araña web motor de búsqueda, descargarse una página y almacenarla en los servidores del motor de búsqueda, donde un segundo programa, conocido como indexador, extrae información sobre la página, como las palabras que contiene y donde están localizadas, así como la relevancia de palabras específicas y todos los vínculos que la página contiene, los cuales se almacenan en un proceso programado para ser analizados más tarde.

Los dueños de sitios web comenzaron a reconocer el valor de tener sus páginas web bien posicionadas y visibles para los motores de búsqueda, lo que creó una oportunidad para los usuarios de técnicas SEO, "white hat" (gorro blanco) y "black hat" (gorro negro). De acuerdo con los análisis del experto Danny Sullivan, el término “optimización de motores de búsqueda”, comenzó a usarse en 1997[2] . El primer uso documentado del término Optimización de Motores de Búsqueda (SEO) se da de la mano de John Audette y su compañía, Multimedia Marketing Group, documentado por una página web del sitio web MMG en agosto de 1997.

Las primeras versiones de los algoritmos de búsqueda se basaban en la información provista por los administradores de páginas web, como las palabras clave meta tag, o ficheros indexados en motores como ALIWEB. Meta tag ofrecía una guía para el contenido de cada página. Usar metadatos para indexar una página fue un método no demasiado preciso, ya que las palabras provistas por el administrador de sitio web en los meta tag podría ser una representación no precisa del contenido real de la página web. Unos datos imprecisos, incompletos e inconsistentes en las meta tags podrían causar y causaron que páginas se posicionaran para búsquedas irrelevantes.[3] Los proveedores de contenido web también manipulaban una serie de atributos en el código fuente HTML de sus páginas en un intento de posicionar bien en los motores de búsqueda.[4]

Debido a la importancia de factores como la densidad de palabras clave, la dependía totalmente del administrador de la página web, los primeros motores de búsqueda sufrieron el abuso y la manipulación de las clasificaciones. Para proveer de mejores resultados para sus usuarios, los motores de búsqueda tenían que adaptarse para asegurar que sus páginas de resultados mostraran las búsquedas más relevantes en vez de páginas no relacionadas, llenas de palabras clave por administradores de páginas web sin escrúpulos. Contando con que el éxito y popularidad de un motor de búsqueda están condicionados por su capacidad de producir los resultados más relevantes para cualquier búsqueda, permitir que los resultados fueran falsos haría que los usuarios se fueran a otros motores de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos, tomando en cuenta factores adicionales para que fueran más difíciles de manipular por los administradores web.

Los estudiantes graduados por la Universidad de Stanford, Larry Page y Sergey Brin, desarrollaron “Backrub”, un motor de búsqueda que se basaba en un algoritmo matemático que puntuaba la relevancia de páginas web. PageRank fue el nombre del número calculado por el algoritmo, una función que cuenta con la cantidad y fuerza de vínculos entrantes. PageRank estima la posibilidad de que una página web sea vista por un usuario web que navega aleatoriamente por la web, y sigue vínculos de una página a otra. Realmente, esto significa que algunos vínculos son más fuertes que otros, por lo que una página con PageRank más alto tiene más posibilidad de ser visitada por un usuario aleatorio. Page y Brin fundaron Google en 1998. Google atrajo a seguidores fieles entre el creciente número de usuarios de Internet, a los cuales les gustó su diseño sencillo.

Se consideraron factores externos a la página (PageRank y análisis de vínculos) a la par que factores internos (frecuencia de palabra clave, meta tags, cabeceras, vínculos y estructura del sitio web), para permitir a Google evitar el tipo de manipulación vista en motores de búsqueda que solo consideraban factores internos de la página para las clasificaciones. Aunque PageRank era más difícil de manipular, los administradores de páginas webs ya habían desarrollado herramientas de creación de vínculos y planes para influenciar el motor de búsqueda Inktomi, y estos métodos también fueron eficaces para manipular PageRank. Mucho sitios se centraron en intercambiar, comprar y vender vínculos, a menudo, a gran escala. Algunos de estos sistemas, o granjas de vínculos, incluían la creación de miles de sitios con el único propósito de crear vínculos basura.

En 2004, los motores de búsqueda habían incorporado un amplio número de factores sin publicar en sus algoritmos de clasificación para reducir el impacto de la manipulación de vínculos. En junio de 2007, Hansell, del New York Times, declaró que los motores de búsqueda estaban usando más de 200 factores. Los principales motores de búsqueda, Google, Bing y Yahoo, no publican los algoritmos que usan para posicionar páginas web. Algunos posicionadores o SEO han estudiado distintas maneras de tratar la optimización de los motores de búsqueda, y han compartido sus opiniones. Patentes relacionadas con los motores de búsqueda pueden proveer información para entender mejor a los motores de búsqueda.

En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario, dependiendo de su historial en búsquedas previas, Google ofrecía resultados personalizados para usuarios registrados. En 2008, Bruce Clay dijo “el posicionamiento está muerto” debido a la búsqueda personalizada. Opinaba que resultaría irrelevante discutir como un sitio web se posiciona, puesto que su posición variaría en función de cada usuario, cada búsqueda.

En 2007, Google anunció una campaña en contra de los vínculos de pago que transfieren PageRank. El 15 de junio de 2009, Google publicó que había tomado medidas para mitigar los efectos del tallado de PageRank, implementando el atributo nofollow en los vínculos. Matt Cutts, un conocido ingeniero de software de Google, anunció que Google Bot trataría de manera diferente los vínculos con no follow, con idea de prevenir que los proveedores de servicios de posicionamiento (SEO) usaran no follow para el tallado de PageRank.

El resultado es que el uso de nofollow lleva a la evaporación de PageRank. Para evitar lo arriba mencionado, algunos ingenieros posicionadores (SEO) desarrollaron distintas técnicas alternativas que cambiarían las etiquetas nofollow con Javascript ofuscado, permitiendo el tallado de PageRank. Además de diversas soluciones que incluyen el uso de iframes, Flash y Javascript.

En diciembre del 2009, Google anunció que usaría el historial de búsqueda de todos los usuarios para elaborar los resultados de búsqueda.

Google Instant, búsqueda en tiempo real, fue introducido a finales de 2010 en un intento de hacer los resultados de búsqueda más relevantes y recientes. Históricamente administradores de web han gastado meses o incluso años en optimizar un sitio web para mejorar su posicionamiento. Con el aumento en popularidad de las redes sociales y blogs, los principales motores hicieron cambios en sus algoritmos para permitir contenido fresco y posicionar rápidamente en los resultados de búsqueda. En febrero de 2011, Google anunció la actualización “Panda”, la cual penaliza sitios web que contengan contenido duplicado de otros sitios y fuentes. Históricamente las páginas web han copiado contenido de otras beneficiándose en los clasificación de los motores de búsqueda aplicando esta técnica, sin embargo Google implementó un nuevo sistema en el que penaliza a las páginas web cuyo contenido no es único.

En abril del 2012, Google anunció la actualización “Penguin” cuyo objetivo era penalizar a aquellos sitios que usaban técnicas manipuladoras para mejorar sus rankings.

En septiembre de 2013, Google anunció la actualización “Colibrí“, un cambio en el algoritmo diseñado para mejorar el procesamiento del lenguaje natural de Google y la comprensión semántica de páginas web.

Posicionamiento natural u orgánico[editar]

El objetivo es aparecer en las posiciones más altas posibles de los resultados de búsqueda orgánica para una o varias palabras concretas.

Supone la tarea de optimizar la estructura de una web y el contenido de la misma, así como la utilización de diversas técnicas de linkbuilding, linkbaiting o contenidos virales, aumentando la notoriedad de la web, debido al aumento de menciones.

La optimización se realiza en dos sentidos:

  • Interna: Mediante mejoras en el contenido. Mejoras técnicas en el código. Accesibilidad. Test A/B, etc.
  • Externa: Se busca mejorar la notoriedad de la web mediante referencias a ella. Esto se logra fundamentalmente a través de links.

El posicionamiento orgánico o natural, en España. Se desarrolla fundamentalmente en torno al buscador Google, debido a que supone más del 90%-95%[5] del volumen total de búsquedas. El posicionamiento en distintos buscadores, como Bing o Yahoo, requiere de distintas técnicas, aunque sus algoritmos de búsqueda son similares.

También nos referimos a posicionadores o SEOs para definir las personas que realizan este tipo de trabajo.

Cabe destacar que los buscadores, suelen mostrar resultados orgánicos o naturales en un área, a la par de resultados de pago. El posicionamiento en estas áreas de pago, requiere del pago cierto servicios especiales, como Adwords o Microsoft Ad Center, y se conoce como Marketing en motores de búsqueda o por sus siglas inglesas, SEM (Search Engine Marketing).

Actividades para mejorar el posicionamiento[editar]

El trabajo es amplio, ya que el posicionamiento involucra al código de programación, al diseño y a los contenidos. Como recomendación básica se recomienda seguir la guía de directrices de Google[6]

Se puede dividir en posicionamiento interno y externo:

Posicionamiento interno[editar]

Son aquellas mejoras que podemos aplicar sobre nuestra web, contenido, apariencia, accesibilidad, etc.

  • Crear contenidos de calidad. Es común el dicho de: "el contenido es rey".
  • Realizar la estructuración y el diseño de una página web pensando en el posicionamiento, significa prestar atención a que sea funcional, fácil de acceder y que capte la atención del usuario.
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página. Cada página es una tarjeta de presentación para el buscador. Los títulos y descripciones son puntos de partida para la identificación de los términos relevantes a lo largo de la web por los buscadores. Las mejores prácticas recomiendan escribir títulos de entre 60 y 70 caracteres.
  • Hacer nuestra web lo más accesible posible: limitar contenido en Flash, frames o JavaScript. Este tipo de contenido no permite el rastreo o seguimiento de la información por parte del robot en las diferentes páginas o secciones. Para ellos son un espacio plano por el cual no se puede navegar.
  • Enlazar internamente las páginas de nuestro sitio de manera ordenada y clara. Un «mapa del sitio» en el código (tanto el de Google como uno presente en el sitio) permitirá dar paso al buscador por las diferentes secciones del sitio en forma ordenada, mejorando su visibilidad.
  • Mejorar la experiencia del usuario con mejoras del diseño y disminución de las tasas de rebote.
  • Alojar la web en un servidor fiable.
  • Utilizar negrita o cursiva en los contenidos para las palabras clave que se pretenden posicionar.
  • Utilizar las etiquetas “meta” (description y title) con las palabras claves, elegidas estratégicamente con anterioridad. La etiqueta “meta title” es el factor on-page más importante para el posicionamiento, después del contenido general. La etiqueta “meta description” ofrece una explicación breve del contenido de una página y es normalmente utilizada por los buscadores para mostrar un breve resumen del contenido de la página en los resultados de búsqueda.
  • Utilizar las cabeceras h1, h2, h3, etc. para destacar términos importantes, o títulos. Se deberían usar palabras claves en las cabeceras.
  • Optimizar las URL, colocamos las palabras claves más importantes y significativas para la búsqueda.
  • Crear un diseño web limpio en publicidad y que entregue el contenido relevante en la mitad superior del sitio web[7]
  • Actualizar la página con contenido original de calidad.
  • Optimizar el tiempo de carga de una web para conseguir la reducción del ancho de banda, aumentar la tasa de conversión y mejorar la experiencia de usuario.
  • Utilizar un correcto etiquetado del sitio web.

Posicionamiento externo[editar]

Son aquellas técnicas que usamos para mejorar la notoriedad de nuestra web en los medios online. Por norma general, se busca conseguir menciones online, en forma de link, de la web a optimizar.

  • Conseguir que otras webs de temática relacionada enlacen con tu web. Para ello es interesante realizar una búsqueda para aquellos términos que consideras deberían llevar tráfico a tu web y estudiar cuáles de ellos tienen un contenido complementario. Si por ejemplo quieres posicionarte por el término "peluquería madrid" puede ser interesante intentar conseguir backlinks de peluquerías de otras ciudades.
  • Ahora mismo hay cientos de redes sociales, por ejemplo Hi5, Facebook y, Orkut, en las cuales poder participar y obtener visitas de nuestros nuevos «amigos». Para Google, la red social que mayor impacto tiene en el posicionamiento web es Google Plus, que ha tomado el lugar en importancia de Twitter y Facebook.
  • Darse de alta en directorios importantes como Dmoz y Yahoo!. Los directorios han perdido mucho interés en los buscadores pero siguen siendo un buen punto de partida para conseguir enlaces o un primer rastreo de tu web por los buscadores. Ambas requieren de un filtro humano para su inclusión lo que asegura la calidad de las web añadidas, pero también ralentiza y dificulta su inclusión.
  • Registrarse y participar en foros, de preferencia en foros temáticos relacionados a la actividad de su página web. La frecuente participación tiene que ir acompañado de aporte real y valioso como para ser tomado en cuenta como un usuario calificado, el detalle del éxito para conseguir visitas y aumentar el posicionamiento es el enlace hacia su página web presentado en su firma.
  • Escribir artículos en otros sitios web. Los artículos son un método muy poderoso para mejorar el posicionamiento y conseguir atraer visitas.Si puedes escribir unos artículos de un curso, de los trucos del día, la utilidad del producto de tu web.
  • Intercambiar contenido.

Precauciones[editar]

Las técnicas aplicadas pueden ser mal ejecutadas o desmedidas y afectar de manera negativa a los resultados naturales de los buscadores, por lo que si incumplen las cláusulas y condiciones de uso de los mismos, pueden ser consideradas en algunos casos, como una forma de SPAM, el spamdexing, las cuales son penalizadas, en algunos casos, desapareciendo en su totalidad de los buscadores. Se recomienda la lectura del artículo penalización en motores de búsqueda.

Posicionamiento y la evolución de los resultados de búsqueda[editar]

Algunas de estas nuevas tecnologías son:

Búsquedas universales
Es uno de los cambios recientes más importantes en los buscadores, donde en las páginas de resultados de búsquedas muestran resultados combinando búsquedas orgánicas con imágenes, vídeos, blogs, resultados locales, comunicados de prensa, libros o productos. Esto es especialmente importante para el contenido vertical de un sitio web en un tema específico.
Búsquedas personalizadas
Los distintos motores de búsqueda como Google, Yahoo, Yandex o Baidu, ha lanzado varias características que permite a los buscadores la facilidad de mostrar contenido relacionado con las acciones anteriores del usuario en el buscador. Cada usuario con el tiempo irá mejorando su perfil de búsqueda personalizada, donde los enlaces y páginas visitados irán adquiriendo más importancia que los no visitados.
Esto en cierta manera, dificulta el posicionamiento, ya que es muy complicado predecir los gustos personales de cada usuario y dificulta el averiguar que está viendo realmente el usuario en su pantalla.
Los resultados también vienen condicionados por la localización de la búsqueda, es común encontrárselo por su término inglés, geotargeting, enfocado a las búsquedas locales o nacionales, que son una parte muy significativa del tráfico. Permitiendo a usuarios de Madrid o Barcelona, encontrar resultados específicos de sus ciudades o países.
Búsquedas en tiempo real
Esta característica provee la facilidad de enlazar los resultados de una búsqueda con sitios web que proveen contenido en tiempo real, desde Twitter, Myspace o Facebook. Es probable que la lista que provea los contenidos de tiempo real crezca con el tiempo a medida que se incorporen diferente fuentes y acuerdos.
Los buscadores, permiten seleccionar el contenido creado en función de su fecha, con lo que el más reciente, dependiendo del tema, puede generar más tráfico.
Búsquedas sociales
Aparece en lás búsquedas finales del 2009 y provee en las páginas de resultados de búsqueda contenido proveniente de las redes sociales que han sido suscritos en el perfil de usuario. Estos contenidos sólo son obtenidos de la red de contactos que un usuario posee en la red social relevantes con las palabras claves usadas en la búsqueda. Actualmente Google lo incorpora como Google+, y su vinculación más importante con el SEO es Google Authorship.
Búsquedas locales
El posicionamiento se busca a través de referencias sólidas tanto locales como nacionales, que permitan a los diferentes buscadores, determinar la localización exacta de esa web, para que estos puedan ofrecer los resultados locales correctos los usuarios locales o nacionales.
Sobre este punto cabe destacar las recomendaciones de Google en relación a la internacionalización de las páginas web.[8]
SEO y la Actualidad del Algoritmo
En poco más de 3 años (Desde el 2009) se han sucedido al menos 7 cambios en el algoritmo de Google, el principal buscador: Vince, Mayday, Caffeine, Panda, Freshness, Pinguine y Venice[9] . El 27 de septiembre de 2013 Google ha puesto en marcha su nuevo algoritmo, Google Colibrí que viene a profundizar en el concepto de buscador inteligente. Con este nuevo algoritmo Google se acerca más a la búsqueda semántica y es capaz de comprender las búsquedas realizadas en un lenguaje humano natural.
Google quiere mejorar la calidad de sus resultados de forma que webs que realizan prácticas de “black hat” sean penalizadas en las búsquedas orgánicas. Penalizando, a quienes abusen de lo siguiente:
  • Uso de rellenos de palabras clave.
  • Utilización de técnicas de linkbuilding masivo, evitemos las granjas de enlaces.
  • Uso de enlaces y contenidos ocultos que no aportan nada al lector.
  • Uso de copiado de otras páginas.
  • Repetición o densidad excesiva de palabras clave de forma no natural, esto implica un contenido de baja calidad para el lector.
  • Exceso de enlaces internos entre las páginas de un mismo site.
  • Repetición del uso de un mismo “anchor text” abusando de las palabras claves en las páginas que nos enlazan, esto es poco natural ya que la gente normalmente no usa palabras clave para realizar un enlace a las páginas que le gustan.
En el lado contrario, hay técnicas de SEO que si deberiamos seguir aplicando:
  • Realizar contenido de calidad y exclusivo en nuestras páginas.
  • Seguir destacando con negritas y cursivas aquello que es relevante.
  • Pensar siempre en el usuario a la hora de escribir nuestras páginas.
  • Enlazar y que te enlacen páginas “vecinas”, tanto a nivel temático como geográfico.
  • A ser posible usar imágenes y videos originales.
  • Compartir nuestras páginas en la redes sociales.
  • Usar los famosos microformatos en nuestro html.

Posicionamiento en buscadores en 2013[editar]

Google ha llevado a cabo algunos cambios en la documentación de ayuda para los webmasters, especialmente en lo que a ranking se refiere. Nótese que donde antes podía leerse:

In general, webmasters can improve the rank of their sites by increasing the number of high-quality sites that link to their pages En general, los webmasters pueden mejorar el ranking de sus sitios aumentando el número de sitios de alta calidad que enlazan en sus páginas.

Ahora dice:

In general, webmasters can improve the rank of their sites by creating high-quality sites that users will want to use and share En general, los webmasters pueden mejorar el ranking de sus sitios creando sitios de alta calidad que los usuarios quieran utilizar y compartir.[10]

Este cambio es consistente con lo que Google quiere de los administradores de sitios web: menos link-building y más calidad, y toma en cuenta el factor de interacción de las personas con el contenido propio de cada página. Dentro de estos factores destacan: el tiempo de permanencia en el sitio web, el porcentaje de rebote, los comentarios que se realizan en la página, y las veces que se comparten en las redes sociales.

Véase también[editar]

Referencias[editar]

  1. Maciá Domene, Fernando (2011). Tecnicas avanzadas de posicionamiento en buscadores. Anaya Multimedia-Anaya Interactiva. ISBN 9788441529632. http://books.google.es/books?id=zS7VygAACAAJ&dq=inauthor:%22Fernando+Maci%C3%A1+Domene%22&hl=es&sa=X&ei=5xkgUb7pOpSLhQe6qIHADQ&ved=0CD4Q6AEwAQ. 
  2. Danny Sullivan (14 de junio de 2004). «Who Invented the Term "Search Engine Optimization"?». Search Engine Watch. Consultado el 14 de mayo de 2007. See Google groups thread.
  3. Cory Doctorow (26 de agosto de 2001). «Metacrap: Putting the torch to seven straw-men of the meta-utopia». e-LearningGuru. Archivado desde el original el April 9, 2007. Consultado el 8 de mayo de 2007.
  4. Pringle, G., Allison, L., and Dowe, D. (April de 1998). «What is a tall poppy among web pages?». Proc. 7th Int. World Wide Web Conference. Consultado el 8 de mayo de 2007.
  5. cuota de mercado de los buscadores en España
  6. Google. «Guía para webmasters de Google».
  7. Cambio en el algoritmo de Google
  8. Google Webmaster. «Internacionalización». Consultado el 18 de enero de 2013.
  9. «Google Algorithm Change History» (en inglés). Consultado el 26 de noviembre de 2013.
  10. Ranking- Webmaster Tools. Consultado el 17 de septiembre de 2013.

Enlaces externos[editar]