Archives for category: web

Muchas webs que nos llegan a la agencia actualmente tienen una estructura de URL no amigables. Eso significa que en las direcciones web podemos encontrar parámetros de ID, nombres de extensión etc.

Re-escribir estas direcciones para convertirlas en URL amigables es un paso correcto dentro de la buena optimización de la web para buscadores de búsqueda, pero trae consigo un problema muy común: La pérdida de posiciones en los buscadores y el aumento de los errores 404 por parte de los motores de búsqueda como Google.

Tengo que confesar que nunca he visto una migración de URL o de web sin ver una caída y aunque hasta cierto punto es normal que haya un pequeño bache yo estoy acostumbrado a ver unas pérdidas de tráfico que rozan o superan el 50% del tráfico orgánico, cuando esto lo podríamos ahorrar fácilmente si siguiésemos unos sencillos pasos. A continuación contaré los pasos que se deben seguir para que la migración a URL amigables no genere una pérdida de tráfico orgánico ni ninguna clase de error que perjudique la experiencia del usuario.

Tráfico orgánico

Las visitas orgánicas a nuestra web son aquellas que provienen de los motores de búsqueda. Se estima que este un 90% del tráfico que proviene de los buscadores proviene de Google. Las páginas que más visitas orgánicas consiguen son aquellas que se muestra en los 5 primeros resultados:

CTR en función de la posición orgánica

Enlaces hacia un dominio (marcas de popularidad)

Google usa más de 200 algoritmos para definir el orden de la indexación al realizar una cierta búsqueda. Uno de los aspectos más importantes de estos algoritmos es la popularidad. Ante la imposibilidad matemática y algorítmica de definir la popularidad, Google usa los vínculos de Internet hacia una web para determinar si una página es popular o no y se merece aparecer en primeras posiciones.

enlaces a un dominio

Un vínculo de una web con mucha autoridad (Webs gubernamentales, de educación, medios de comunicación de masas…) y  webs de temáticas similares, le transfiere a la web vinculada una “popularidad” que Google considera crucial.

Y son estos links son en gran parte los responsable de hacer que un dominio posicione en mejores y/o peores posiciones por diversas búsquedas. Cuando un enlace hacia una página devuelve una web inexistente, dicho link “muere” para Google y deja de transferir popularidad

enlaces a una 404

Es por ello que resulta indispensable realizar una migración limpia cuando un espacio web se renueva y se cambia la arquitectura de URL.

301 en las migraciones de URLGracias a las redirecciones 301:

  • No perdemos visitas que provienen de tráfico orgánico
  • No perdemos posicionamiento web al mantener los vínculos existentes
  • Importante no realizar redirecciones 302: Las redirecciones 302 son temporales por lo que los motores de búsqueda asumen que la URL antigua sigue siendo la válida.

Elementos a identificar

  • Las páginas de destino de nuestro site en Google Analytics
  • Número de URLs de nuestra web
  • Linking Interno

Páginas de destino de nuestro site

En Google analytics

Comportamiento > Contenido del sitio >Páginas de destino

En esta sección podemos ver las URL que han sido la entrada de nuestros usuarios a nuestra web en un periodo determinado (seleccionable por nosotros mismos, y recomendable que sea al menos de los dos últimos meses).

google analytics páginas de destino

Todas las URL que aparezcan en este apartado son URL captadoras de tráfico que deberemos asegurar no perder. Cualquier URL que se modifique pasará a ser un error 404 si dicho cambio no se acompaña de una redirección 301.

Se debe guardar un registro de las URL que han sido captadoras de tráfico en los últimos 2/3 meses, para poder comprobar después del cambio si dichas URL devuelven un error “301>200” (redirección correcta) o un error 404 (Página no encontrada)

Identificar números de URLs

En Google analytics

Comportamiento > Contenido del sitio > Todas las páginas

En esta sección podemos ver las URL que se han usado de la web, independientemente que estas sean “página de entrada” o parte del “customer journey”. Con este listado de las webs consultados durante un periodo determinado (recomendamos que sea de unos 4-6 meses mínimo) tendremos una referencia muy realista de las URL que realmente nos interesa mantener.

identificar número de URL

Todas las URL que aparezcan en este apartado son URL que forman parte de la experiencia de usuario y en el caso de que no hagamos una correcta redirección se transformarán en un error 404 para Google y una mala experiencia para nuestros visitantes.

Usando XENU link sleuth

Xenu es un programa freeware que analiza toda una web que le marquemos. Es importante desmarcar la casilla de “comprobar los enlaces salientes” para completar más rápidamente la operación.

crawl con xenu

Una vez tengamos toda la web crawleada podemos guardar el trabajo como “Google Sitemap”. Al abrirlo con el Excel tendremos un listado completo de todas las URL que podemos introducir en un archivo TXT y entrarlo posteriormente en el mismo XENU bajo la opción de Check URL List. Con esta operación podremos en todo momento saber qué URL están bien redireccionadas y cuales presentan un error.

comprobar URL con xenu

Es importante unir todas las URL que hayamos conseguido bajo un mismo archivo TXT que será el que tomaremos como referencia para ver si el conjunto de las redirecciones que hemos realizado es correcta.

Una vez se tenga toda la nueva estructura

Debemos asegurarnos que la nueva web refleje la antigua

A partir del listado de las landings orgánicas conseguidas con Google Analytics y las URL conseguidas con Xenu, debemos realizar las redirecciones 301 para no perder tráfico.

El siguiente ejemplo es un caso de redirección 301 en el archivo .htaccess

RewriteEngine On
Redirect 301 / http://ift.tt/1JXP4rh
Redirect 301 / posts http://ift.tt/1EQsG6v

Problemas habituales

Todo cambio siempre requiere de una vuelta al equilibrio

  • Caída del número de páginas indexadas en Webmaster Tools
  • Caída de tráfico en Google Analytics
  • Caída de tráfico orgánico a consecuencia de caída de rankings
  • Incremento de errores 404 en Webmaster Tools

 Lo importante es detectarlo a tiempo y corregirlo antes de que sea demasiado tarde para ello…

Una vez migrada la estructura web ycuando esta ya esté subida al servidor

Debemos hacer unas revisiones periódicas para asegurarnos de que nada ha salido mal:

  • Nuevas URL de destino: Mirar si en Google Analytics los usuarios entran, principalmente, por las mismas páginas de destino. En el caso de que haya algún cambio, o caída de tráfico significante en alguna de las webs principales, debemos asegurarnos que la redirección es correcta.

  • Errores 404 en Webmaster tolos: Mirar cada 2/3 días los errores de rastreo de Webmaster Tools para detectar errores 404 y solucionarlos rápidamente
  • Número de páginas indexadas: Comprobar cada 2/3 días el número de páginas indexadas en Webmaster Tools. Si los cambios se han realizado correctamente no debería haber un baile de números.

La entrada Cómo hacer correctamente una migración web y redirecciones de URL aparece primero en Activa la web.

via Activa la web http://ift.tt/1JXP6iG

Advertisements

Todos sabemos que Google tiene muy en cuenta cualquier interacción social realizada en Google+. Si tu página profesional de Google+ (vinculada correctamente con tu web) tiene muchos +1, será un perfecto indicio de que la gente ama tu web.

No entraremos a debatir si esto es justo, si se pasa por donde tondos sabemos otras redes sociales mucho más populares (y por supuesto menos masificadas de SEOs). Lo que haremos es intentar usar una estrategia para que Google considere que la gente adora nuestro dominio. Es un poco black, así que usadla bajo vuestro propio riesgo. Aunque buena para el posicionamiento ya os aviso que no es lo mejor para hacer branding.

¿Cómo funciona?

Cuando yo creo un post en este mismo blog y lo publico en Twitter y Google+ (no uso otras redes sociale) normalmente pongo:

  • Foto
  • Título de la entrada y breve descripción
  • Enlace hacia la entrada para que el usuario pueda leerla entera

Publicación estandard en google+

En esta publicación la gente podrá hacer +1, compartirla… y claro, ir a mi blog para leer el resto de la entrada. Estos +1 son un indicativo a Google de que a los usuarios les ha gustado esa URL. Y en eso nos vamos a centrar para conseguir estas menciones sociales.

Vamos a replicar la misma forma

Si creo una entrada con mi URL y la gente le da +1, Google entenderá que esos usuarios les gusta esa URL. Pero ¿cómo consigo que USUARIOS REALES le den +1 a una publicación con una URL? ¿Como consigo que la gente le de +1 a mi página de reciclaje de tinta? (por decir algo).

Pues haciendo que la gente no le de +1 a tu URL, le de +1 al contenido. Y como necesito muchos +1, vamos a usar algo que nunca pasa de moda. Los gifs animados. 

  1. Localizamos un GIF gracioso que a la gente le guste:
    Panda Feliz
  2. Lo colgamos en alguna comunidad de Google+ que tenga cientos, miles… a poder ser decenas de miles de usuarios, relacionada con los “gifs de animales”, “gifs de cachondeo”… Quizás penséis que no…. pero existen, y muchas!
    Aquí el secreto es poner un texto lo suficientemente largo como para que la gente no vea lo que hay debajo:
    Colgar contenido en comunidad
  3. Y en esta parte de abajo, claro, ponemos nuestro enlace hacia la web que queremos trabajar
    Ponemos enlace
  4. En el caso que también queramos dar fuerza a un “Mybusiness” yo entonces lo que hago es activar la cuenta de “mybusiness” y compartir esa entrada en la página de Google+ profesional. ¿Por qué? Por dos motivos:
    – Creo que algo sirve que tengas una publicación con muchos +1 en tu página
    – Alguien va a empatizar con tu contenido y le va a dar un “seguir”, por lo que vas a ganar seguidores y eso es bueno.
    Compartir en tu perfil de Mybusiness

 

Las cosas claras… estamos “robando” +1 ya que la gente realmente no nos quiere dar un +1 a nosotros, lo hace a la foto, por lo que no os lo recomiendo si queréis hacer branding. Pero es una buena técnica si lo hacemos para posicionar alguna web que tengamos de nicho… y no es que “puteemos” a nadie tampoco 😉

La entrada Cómo conseguir +1 para tu dominio aparece primero en Activa la web.

via Activa la web http://ift.tt/1MnY6Q4

A veces nos puede interesar cambiar la contraseña de nuestro usuario administrador, ya que nos han entrado en la cuenta (hackeado) o olvidamos el password de nuestro usuario administrador y el mail que usamos para hacer una recuperación ya no existe o WordPress da error al intentar usar el comando “mail” de PHP.

Recuperación Contraseña WordPress

Es una situación poco habitual pero de buen seguro que todos tarde o temprano nos encontramos ante ella.

La solución es muy sencilla si tenemos el acceso a nuestro Cpanel o Plesk… o lo que viene a ser lo mismo, si tenemos acceso a nuestra base de datos.

Basta con entrar en nuestra BBDD de Mysql y buscar el usuario administrador en el apartado WP_USERS. Allí veremos los usuarios dados de alta, y deberemos modificar el usuario “superadmin” al que queremos restaurar la contraseña.

Modificación mail y contraseña de usuario wordpress desde Mysql

Modificación mail y contraseña de usuario wordpress desde Mysql

 

Aquí os doy 2 opciones:

 

Modificar el correo electrónico: En el caso que ya no tengamos o no podamos acceder al mail de recuperación de contraseña podemos modificarlo en la base de datos y luego desde el login de wordpress hacer una restauración de password. De este modos nos llegará el formulario de modificación de password al nuevo mail de la base de datos.

Restaurar contraseña de wordpress

Modificar directamente la contraseña: A veces WordPress no puede mandar mails, normalmente por problemas con el comando “mail” de nuestro hosting PHP. Si este es nuestro caso no podremos resetear la contraseña de ninguna forma más que modificándose directamente desde la base de datos.

Si miramos en la misma línea de usuario de la base de datos veremos que la contraseña en cuestión se nos muestra codificada. Veremos algo parecido a: “940e2423f11b8e38a0f22345ed210315”.

Para poner la nueva podemos acudir a un codificador de contraseñas MD5 (el formato que usa WordPress) y asignamos la que queramos. Podemos usar un codificador gratuito como el de la siguiente página: http://ift.tt/XbJtoa

codificación contraseña para bbdd wordpress

Codificación contraseña para bbdd wordpress

Ahora será tan sencillo como poner nuestra nueva contraseña en formato MD5 en la base de datos y ya podremos entrar con el nombre de usuario habitual y con la nueva contraseña.

 

Pase lo que pase en nuestro WordPress podremos darle la vuelta siempre que tengamos acceso a nuestra base de datos, así que no cunda el pánico ;)
Espero que os sea de ayuda!

La entrada Cambiar contraseña de super admin WordPress sin tener acceso aparece primero en Activa la web.

via Activa la web http://ift.tt/18BY3SQ

Hace ya mucho tiempo escribí sobre Toolows, un sistema automático de ganar followers en twitter. Para mi esta herramienta sigue siendo la mejor de las que he probado para este propósito, junto con otras de pago como Tweet Attacks (un poco más cara). Pero está claro que no siempre tenemos una cuenta con la que nos queramos gastar dinero, o sencillamente, empezamos un proyecto y no queremos invertir dinero. Para este tipo de situaciones hoy he descubierto Tweepy, y la verdad es que me he quedado con muy buen sabor de boca.

Conseguir enlaces con Tweepy

Tweepy es una herramienta de pago pero que sus opciones “free” nos van a dar una ayuda extra a nuestra cuenta de Twitter muy interesante. En esencia Tweepy escaneará nuestro usuario de twitter y nos descubrirá ciertas relaciones con nuestros usuarios:

Es capaz de decirnos que un número de usuarios a los que seguimos no nos están siguiendo, que hay otros que nos siguen y que nosotros no a ellos y varias relaciones como estas, con las que podremos decidir qué queremos hacer con nuestra cuenta. Lo bueno es que si entramos dentro de estas secciones, podremos seguir o “unfollow” a las personas que queramos de una forma ágil y sin necesidad de tener que entrar en twitter. 

Sus funciones:

  • Flush. Número de personas a las que sigue tu cuenta de Twitter pero ellos no te siguen. Si decides dejarlas de seguir podrás hacerlo desde la misma plataforma.
  • Reciprocate. La opción contraria, todos los seguidores que no sigues. Puedes igualmente hacerles followback si quieres desde la misma plataforma.
  • Cleanup. Para borrar de manera rápida a todo los seguidores que desees.
  • Follow Followers. Te proporciona listas de seguidores según tu temática para que puedas comenzar a seguirlos. Lo malo es que no filtra por geografía (a menos que no pagues) por lo que no le veo mucho sentido ahora mismo.
  • Follow Friends. De manera sencilla puedes ver los perfiles que sigue un usuario. La opción estrella y la que vamos a usar ;)
  • Follow list. Lo mismo que con los amigos, pero para buscar listas.

Los amigos de tus amigos… también son tuyos en twitter

Todos sabemos de perfiles de usuarios (amigos o conocidos) que tienen un montón de amigos gracias al uso de herramientas como toolows, tweet attacks… así que gracias a Tweepy podemos “aprovecharnos” de su trabajo hecho y sin tener que pagar nada.

Es tan sencillo como ir a la opción “follow friends” de nuestra cuenta de Teepy y poner el nombre de un usuario de twitter que tenga muchos seguidores (o que sepamos que usa algún “truco” para subir el número de amigos), usuarios de tu mismo sector  y dejar que Tweepy escanee:

Posibles followers en twitter

Aquí lo importante es que estos usuarios tienen un ratio de “follow back”, que no es nada más que el porcentaje de los usuarios de aquella cuenta con las que hay reprocidad. Esto dicho llanamente significa la tendencia de este usuario a devolver el “follow” cuando se lo haces tu primero.

Como hemos puesto a escanear a una cuenta de nuestro mismo sector, los followbacks van a ser de personas interesadas en nuestra temática (recordemos que herramientas como Toolows ya tienen en cuenta esta variable) por lo que es una forma muy sencilla de ganar followers de forma manual y sin tener que pagar absolutamente nada.

La segunda parte buena, es que, tal como he dicho antes, desde esta misma pantalla va a ser muy sencillo empezar a seguir a todos los usuarios pulsando sobre el botón de “follow”. Sin necesidad alguna de ir a Twitter.

Versión de pago de tweepy

Aunque la aplicación tiene la versión de pago bien es cierto que la versión de pago tiene algunas características que a mi personalmente me encantan, como buscar usuarios en base a tweets restringiendo por localización y seguir a los usuarios que cumplan con ese criterio, o sencillamente buscar usuarios por un tipo de temática.

Estas opciones están en la versión platinum de 15$ al mes, que si bien no son necesarias, creo que voy a probar dentro de poco.

Espero que te sea de ayuda y si te animas a compartir tu experiencia con tweepy, tienes todo el espacio del mundo aquí debajo ;)

La entrada Gana followers en twitter de forma manual y segura aparece primero en Activa la web.

via Activa la web http://ift.tt/1DpmAV8

¿Buscas un hosting barato? Pues estás de suerte! Hosting a 3.25€ anuales!

Ya era hora que actualizase el blog y como ultimamente no tengo muco tiempo voy a hacerlo de momento con posts pequeños de hallazgos dignos de compartir de mi día a día. Hoy te traigo el hosting más barato que he encontrado hasta la fecha, y ojo! con una calidad más que buenas por este precio, incluso sé de hosts conocidillos (no vamos a decir nombres) que tienen peores resultados costando 10 veces más.

Pero vamos a demostrar antes de vender humo:

resultados de velocidad del hosting más barato

Estos son los resultados que me ha tirado la web “www.webpagetest.org” donde podemos analizar bien cual es el comportamiento de nuestra web en la carga realizada por varias zonas del planeta.

  • Empezaremos diciendo que el servidor está en Estados unidos, por lo que nosotros tendremos que soportar una latencia fuerte. El test lo hice para un usuario que entra en mi web desde Irlanda (es un proyecto web que espera recibir tráfico de todo el mundo).
  • Aun y la distancia el First Byte Time es muy bueno, de tan sólo 0,4 segundos (0,37 cuando la web está cacheada). Esto significa que medio segundo es el tiempo que tarda nuestro ordenador en recibir la información del hosting. Si lo hubiese mirado desde Estados Unidos, lógicamente, este tiempo sería menor.
  • 0,9 segundos es lo que tarda mi web a ser visible para el usuario (Start Render) y 0,6 segundos cuando la web está cacheada. Un tiempo muy bueno para no perder visitas que esperan ver el contenido del site.
  • El tiempo total de carga de la web ha sido de poco más de un segundo (1,2), y algo más de medio segundo (0,7) con la web cacheada. Debemos tener en cuenta que la web que hay ahora mismo es una web muy liviana sin prácticamente plugins… pero no deja que este hosting está moviendo un WordPress con sus consultas a la base de datos, por lo que el resultado es excelente.
  • Segun webpagetest el hosting falla en la compresión de transferencia (que no tengo activada) y en el cacheado del contenido estático, que solucionaré con la instalación de un plugin como W3Caché para WordPress.

En definitiva, unos resultados muy muy buenos, y es que no me gustaría sacar a relucir muchos de los resultados que Webpagetest me devuelve de webs alojadas en Hostgators o Banahostings.

¿Dónde encuentro este chollo de hosting?

El hosting en cuestión es 132Systems con este enlace ya vas directo a la opción de Shared Hosting a 4$ (antes que alguien me critique, sí, este enlace lleva un código de afiliados con el que tu no pagarás nada y yo me llevaré una pequeña comisión si contratas un servicio con ellos).

Hosting barato 123 systems

Con el servicio más económico, el de 4USD anuales, tienes hasta 10gb de disco duro, 50gb mensuales de transferencia, subdominios ilimitados, Bases de datos MySQL igualmente ilimitadas, y ilimitados dominios apuntando a tu hosting!

El panel además no es nada raro, estamos hablando de un Cpanel típico, el mismo que podemos encontrar con servicios de hosting más caros como OVH o Hostgator.

En definitiva: Precios de hosting de primera a un precio ridículo!

Alguna contra?

No todo van a ser cosas buenas y tampoco quiero ser un vendehielos a esquimales, y es que algunas cosas dejan un poco que desear, y normalmente todas van bastante relacionadas con el servicio de atención al cliente (con estos precios dudo que puedan tener a muchos operarios).

De dos hostings que hemos contratado para proyectos hemos tenido siempre un problema con la activación de la cuenta.

  • En un caso no recibieron nuestra confirmación de pago por paypal, por lo que 24 horas después de haber realizado el pago de 3.25€ no teníamos nuestro hosting activo.
  • En otro caso no había forma de recibir los e-mails en los que nos daban la información para acceder al cpanel y poder así configurar nuestras DNS para apuntar hacia el hosting.

En ambos casos nos respondieron, con lentitud, pero nos respondieron, pero os doy un par de consejos par agilizar los trámites:

  • Cuando hayáis hecho la compra en vuestro mail tendréis un recibo de paypal con el número de transferencia. Os recomiendo que si pasada una hora no tenéis el Cpanel activo o no tenéis mail de confirmación de 123systems abráis un ticket de incidencia diciendo que habéis realizado el pago con número de “invoice: xxxxx” para que os lo activen rápidamente.

Número de invoice de paypal

  • Por otro lado, aunque no hayáis recibido la confirmación por mail, podéis empezar ya a tirar las DNS de vuestro dominio hacia 123systems. En mi caso, como ya las sabía, las configuré antes de recibir el mail de confirmación, por lo que el tiempo que tardé en recibir el mail fue más o menos el mismo que tardé a que las DNS se esparcieran.
    Las DNS de 123systems son las siguientes: DNS1.123SYSTEMS.NET // DNS2.123SYSTEMS.NET

Una vez tengáis las DNS esparcidas y estas ya apunten a vuestro hosting, para acceder al cpanel es tan sencillo como ir a la URL: www.midominio.com:2083 (cambiando midominio.com por vuestro dominio)

Mis conclusiones sobre este hosting

No nos vamos a engañar, no estamos delante de un hosting de altas prestaciones, la verdad es que me gustaría ponerlo a prueba con algun dominio que tenga muchas visitas al día, pero por las mismas nunca pondría una web importante más que para experimentar. Creo que estamos delante un hosting para empezar proyectos, un buen espacio para iniciar estas ideas que de repente tenemos y que no sabemos si son viables o ni si tan siquiera tendremos tiempo para desarrollar. Yo he palmado mucho dinero en hostings de proyectos que luego no he podido continuar, gracias a este hosting puedo hacer pruebas a un precio muy bajo, y lo mejor, es que como el mismo hosting admite varios dominios, no tengo que ni comprar varios de estos.

Si tenéis cualquier duda, podéis usar los comentarios de abajo y os echo un cable en lo que buenamente pueda ;)

La entrada Hosting Barato: 3.25€ anuales. Sin engaños, sin trucos! aparece primero en Activa la web.

via Activa la web http://ift.tt/1pXqIcG

Hoy ha salido una duda razonable en la agencia que si bien no nos ha preocupado en exceso (ni nunca en los años que llevo trabajando en Internet) sí hemos dudado de sus inconvenientes.

¿Qué pasa cuando etiquetamos un vínculo con UTM? ¿Es la URL sin código de seguimiento la que se lleva la autoridad del enlace? ¿O se lo lleva esta URL con la variable? Y ¿genera esta URL contenido duplicado para Google?

Vamos por partes:

seguimiento

Código de seguimiento de Analytics UTM:

Un código de seguimiento de Analytics es una variable de código que se inserta en un enlace para que podamos tener más información de una campaña, publicidad o sencillamente una publicación.

Por ejemplo: Si yo escribo un post en una web ajena a mi dominio, y en este post enlazo con mi web, siempre podré ver las visitas que me transfiere esa web, ya que todas las visitas de ese artículo tendrán un referido.

Y como luce un enlace de estos? Pues de esta forma:

www.activalaweb.com/?utm_source=Fuente&utm_medium=Medio&utm_campaign=Banner

¿Pero qué sucede cuando creo una campaña de e-mail? El tráfico que me genera esta campaña de e-mail no tiene referido y Analytics lo contempla como “tráfico directo” (Dark Social) por lo que no podré conocer el alcance que ha tenido esta campaña de mail a menos que no marque este enlace con un código de seguimiento.

Del mismo modo, aunque sea menos común, podemos marcar cualquier enlace que generemos en cualquier web con un UTM para tener unas estadísticas muy rápidas y visuales de los distintos enlaces que tenemos esparcidos y así tener mucha información de un vistazo.

canales de fuentes en google analytics

Gracias al etiquetado podemos saber las visitas que nos ha generado la campaña de mail marketing realizada.

No es mi objetivo enseñar como se crea una URL de seguimiento, pero parpa facilitar las cosas Google creó una página para que sin conocimiento podamos etiquetar un enlace: http://ift.tt/1rxisOV

¿Genera este enlace una duplicidad de contenido?

Una de las ideas que ha surgido es que generar este enlace, un enlace que además devuelve una web, podría generar una duplicidad de enlace. Aunque a primeras hemos pensado que esto Google lo tenía que tener controlado nos hemos quedado un poco de piedra cuando hemos lanzado la siguiente consulta:

allinurl:"utm_source" OR "utm_medium" OR "utm_campaign" OR "utm_term" OR "utm_content"

Con esta consulta le estamos pidiendo a Google que nos muestre las webs indexadas donde “utm_source” o parecidos aparezcan en la URL (las variables que se usan para etiquetar los enlaces). Pensábamos que Google no indexaría nada de esto… pero el resultado ha sido totalmente distinto a nuestra teoría:

resultados google UTM en URL

Google nos devuelve casi 23 millones de resultados con URL que contienen las variables de seguimiento.

 

Si Google indexa este tipo de URL, y obviamente, indexa la URL “original”… ¿podría generar esto una duplicidad de contenido en el caso que usásemos mucho los enlaces con código de seguimiento? ¿Y si usamos estos enlaces de seguimiento incluso para nuestro enlazado interno? ¡Entonces la duplicidad podría ser enorme!

La primera posible solución que se ma ha pasado por la cabeza ha sido la de desactivar desde robots.txt toda URL que contenga “UTM”.

Una segunda posible solución pasaría por generar una canónica de sí misma en cada una de las páginas de nuestro site. Es decir, que “www.activalaweb.com” tuviera como canónica “www.activalaweb.com”, de este modo cuando “activalaweb” tenga un enlace de seguimiento este no será un duplicado a ojos de Google.

Si bien esto puede parecer un lío, mirando un poco, verás como SEO YOAST ya hace este tipo de canonización de tus webs, por lo que esta duplicidad no será un problema con el plugin instalado:

Canonica de sí misma generada automáticamente por Yoast

Con estas canonicals nos ahorramos (ponemos la tirita antes de la herida) que cualquier variación de la URL la mandemos directamente a la URL original, sin generar duplicidad. Con lo que ya podemos pasar al segundo de nuestros miedos.

¿Traspasa este enlace autoridad a la URL “original” o a la URL con la variable?

Si Google indexa la URL con la variable de seguimiento no es de locos pensar que la autoridad del enlace se la lleva esa misma URL con la variable en vez de la URL original que le hemos puesto a la página en concreto.

Además una canonización no transfiere la autoridad de la página a la página canonizada, para hacer esto deberíamos generar una redirección 301. Una canonización sólo le indica a Google que tenemos una web duplicada adrede y que no queremos posicionar las dos para saturar la búsqueda.

Es decir, que si tenemos la opción de insertar un enlace muy bueno en una página de mucha autoridad… ¿Somos libres de ponerle un código de seguimiento sin perder la transferencia de autoridad hacia mi URL original?

Al ver que Google sí indexaba las URL con parámetros hemos empezado a dudar de ello. No debería… pero ¿y si lo hiciera?

Para salir de dudas hemos cogido un enlace de una web con mucha autoridad con un código UTM que enlazaba a la home de una web, y que lleva allí más de dos meses. Cuando  hemos mirado en Webmaster Tools hemos visto que este enlace contaba en el listado de “enlaces a tu sitio” de forma normal, por lo que podemos concluir que todo enlace con UTM traspasa autoridad a la URL original (sin código de seguimiento).

Conclusión final: Uso de canonicals muy recomendado

Cuando nos hemos planteado el problema no pensábamos que Google indexara las URL con los códigos de seguimiento y esto ha encendido nuestras alarmas. El tema de la autoridad está comprobado: Un enlace con UTM sí traspasa autoridad al enlace “natural” pero el tema de la posible duplicidad de páginas web no queda tan claro.

Es por ello que en el caso que uséis muchos códigos de seguimiento os recomiendo encarecidamente instalar (si no tenéis ya) el plugin de Yoast y aseguraros que cada página se canoniza a sí misma. 

La entrada Vínculos con UTM. ¿Transfieren autoridad o duplican contenido? aparece primero en Activa la web.

via Activa la web http://ift.tt/Wg0svQ

Desde que Google eliminara las fotos de los autores en los snippets de las SERPS no he parado de leer que Google+ ya no era necesario para hacer SEO. Yo no lo creo así, y ya lo puse en mi anterior post, que las prisas para hacer este tipo de cambios sin que nadie haya experimentado pueden salir muy caras (aunque dudo que nadie de los que escriben sobre quitar el rel=”autor” lo hayan sacado).

Creo que es muy necesario realizar una pequeña diferenciación entre lo que era el AutorShip y lo que aun es el Autor Rank. 

Google Autorship y AutorRank

Qué era el AutorShip

El AutorShip era ante todo la forma gráfica con la que Google permitía a los autores de un artículo identificarse y diferenciarse así de webs corporativas, y sobretodo de otros autores. Para entendernos, si buscábamos algo relacionado con SEO y primero salía mi cara y acto seguido la de Rand Fishkin, Rand se llevaría un mayor CTR aun y estar en segunda posición, ya que los usuarios reconocerían al autor. (algo similar a lo que pasa con los periódicos, cuando una noticia la escribe un “desconocido” o “Iñaki Gabilondo”. 

resultado orgánico para "trucos seo"

Gracias al AutorShip en los resultados de Google se podía reconocer rápidamente a los autores, y leer el contenido de nuestros favoritos en el caso que lo hubiese

Google, tal como conté en mi anterior post, relacionó este autor con Google+, supongo que condicionado con la necesidad de controlar a los usuarios de alguna forma que no le permitiría ninguna de las redes sociales presentes, y para sacarle también negocio a Facebook (sí, soy mal pensado).

La autoría recompensó con un incremento del CTR, ya que las imágenes atraían la atención de los usuarios, algo que se hizo conocido en poco tiempo y provocó que los marketers se tiraran en masa a conseguir la ansiada cara de autor.

Google autorship centraba la atención del usuario

Estudio con “Eye Tracking” donde se demostraba que la atención del usuario se situaba en las fotos de perfil

Aunque la imagen de autor desapareció hace dos meses, Google decidió el pasado viernes 29 de agosto terminar con todo lo relacionado con el AutorShip, es decir, que tanto la imagen como la información del nombre (con el nombre de seguidores de Google+) está muerto.

Por este motivo muchos usuarios ahora piensan que el rel=”autor” ya no sirve, que una vez muerto el AutorShip también está muerto Google+ y toda la relación de estrategia SEO que le acompañaba. Una cosa está clara, el CTR ya no volverá a ser el mismo al que teníamos con las fotos, pero yo no me quitaría de encima tan rápidamente un algoritmo que seguramente aun sigue vivo y que quizás se usa para indexar nuestros resultados.

Qué es el AutorRank

Independientemente de la muestra visual que hacía Google, el AutorRank es un algoritmo por el cual Google sabe quien es el autor de un artículo, información que podría alterar de alguna forma los rankings de ese texto, tal vez impulsándolo hacia arriba si los algoritmos consideran a este autor relevante para la temática sobre la que se ha escrito.

Debemos dejar claro que el Autor Rank no es una patente de Google, de hecho es un término que acuñó la comunidad SEO, que tras muchas especulaciones cogió mucha fuerza cuando Eric Schmidt habló sobre la idea de clasificar autores verificados y otorgarles mayor relevancia en los resultados de búsqueda sobre las temáticas donde estos son especialistas en su libro “La nueva era digital”:

Within search results, information tied to verified online profiles will be ranked higher than content without such verification, which will result in most users naturally clicking on the top (verified) results. The true cost of remaining anonymous, then, might be irrelevance.

Nadie nos ha dicho que el Autor Rank desaparezca!

Desde el propio Google, se habló varias veces el año pasado de hacer uso del Autor Rank como una manera de identificar a expertos en el tema y de alguna manera aumentar su visibilidad en los resultados de la búsqueda, claro que también nos ha dicho que el abandono del AutorShip no debería tener un impacto en los rankings de los artículos.

Lo que está claro es que Google, si quiere, tiene otras formas de determinar quién se cree que es el autor de una historia: No es difícil ver en que páginas y/o blogs escribe regularmente un autor, cuando lo publica en su tweet…  Es decir, un montón de “inputs” que pueden seguir engordando un Autor Rank incluso sin Google+. 

De todos modos, tal como decía al principio de mi artículo, yo esperaría a ver si el abandono de Google+ y del rel=”autor” se traduce en caídas en las SERPS antes de tocar nada, y recordaría que normalmente Google tiende más a tomar ventaja de su posición predominante y se tendrá que ver si deciden hacer caer a Google+ sin presentar batalla. 

La entrada Qué era el AutorShip. Qué es el Autor Rank aparece primero en Activa la web.

via Activa la web http://ift.tt/Waz0zI

No hace muchos días escribía un artículo sobre la eliminación de la foto de autor en los resultados de Google. Como ya dije, parece ser que la decisión fue puramente estratégica para que el CTR de adwords se incrementase, pero aun y así seguíamos viendo en el snippet de Google el autor de la publicación (en verde, debajo de la descripción de la página). Podíamos hasta el pasado viernes 29 de agosto 2014, cuando ya lo quitaron y definitivamente podemos declarar muerto el autorship.

Google elimina definitivamente el autorship

En un comunicado escueto John Mueller anunciaba la retirada del autorship en los resultados del gran buscador:

“He estado involucrado desde que empezamos a probar marcas de autoría y mostrarlas en los resultados de búsqueda. Hemos recibido una gran cantidad de información útil de todos los webmasters y usuarios, y hemos ajustado y actualizado el reconocimiento y la visualización de la información de autoría que teníamos. Por desgracia, también hemos observado que esta información no es tan útil para nuestros usuarios como esperábamos, e incluso puede distraer la atención de esos resultados. Con esto en mente, hemos tomado la difícil decisión de dejar de mostrar la autoría en los resultados de búsqueda”.

Crónica de una muerte anunciada

Aunque ya se rumoreaba con que la idea de que el autorship estuviese ya en desuso por parte de Google durante todo este 2014, el primer golpe certero llegó hace unos dos meses, cuando Google eliminó las fotos de autor del resultado de búsqueda. En aquel momento lo consideré una estrategia clara para favorecer el CTR de adwords ya que la atención de los usuarios se centraba en la imagen del autor:

Google autorship centraba la atención del usuario

Las fotos de autorship centraban la atención del usuario tal como vemos en este mapa de calor de “eyetracking”

La eliminación hoy de todo el paquete de autoría me hace ver también otros motivos: Lo que había sido planificado por Google como su herramienta para valorar los valores de experiencia y autoridad de los redactores se ha ido a pique. Lo que tenía que ser una forma de dar relevancia a aquellos usuarios experimentados en una temática, en contra de autores sin ningún tipo de experiencia, ni conexiones, ni pasado… (perfiles mayormente spammers) se ha convertido en un sistema impreciso de realizar dicha valoración. Hubo un momento donde el social parecía derrocar por fin a esta necesidad innata de Google de valorar la popularidad las webs y los posts en base a los vínculos, pero no pudo ser así.

Creación de una red propia: Google+

La creación de Google+ fue su primer campo de batalla. Muchísimo menos popular que Facebook y Twitter, Google necesitaba de una base de datos completa y fiable del movimiento social en Intenet. Google no puede tomar como válidos los indicadores sociales de Facebook, una red cerrada al rastreador y muy fácilmente manipulable. Tampoco a Twitter, una red de la que no tiene ningún tipo de control y de la que la misma compañía del pájaro azul ha admitido tener millones de cuentas falsas. Y no digamos ya la nula intención que hay por parte de estas redes (sobre todo por parte de Facebook) a ayudar a consolidar más aun a la gran G.

Pero el uso de Google+ para captar los inputs sociales tuvo siempre dos tendones de Aquiles:

  • Las redes sociales no son atractivas para todo el mundo: Tener una web y querer actualizar el contenido constantemente significaba desde un punto de vista de Marketing tener que crear un perfil de google+. Yo he tenido que recomendar cientos de veces a mis clientes que se crearan una cuenta de la red social de Google en contra de su voluntad. ¿Era esta la naturalidad que Google perseguía?
    Pero es que además hay negocios que nunca tendrán éxito en las redes sociales, hay webs B2B que no son populares, que no se dirigen al gran público por lo que nunca tendrán “shares”, nunca tendrán “muchos seguidores”… y además quizás venden un servicio o un producto nada atractivo para el usuario mainstream. ¿Cómo esos negocios iban a conseguir +1? ¿Cómo iban a tener seguidores?

 

  • Google+ fue siempre una red social para “marketers”. Se usaba porque intuíamos que eso ayudaría a nuestro posicionamiento, pero el resto de “humanos” no le veía sentido. Siempre me ha hecho gracia ver como en blogs de SEO hay más shares de Twitter y Google+ que de Facebook por ejemplo. Eso no pasa en ningún otro sector.

 

Con estas dos premisas es normal pues que no se pueda considerar el input social del autorship como un valor fiable para la indexación de Google. Es más… con el desuso de Google+ en la gran mayoría de nichos de mercados, incluso es posible que el autorship estuviera ayudando más al Spam que nunca, ya que un marketer spamer con poco trabajo en Google+ podía conseguir un perfil superior al de sus rivales.

¿Es momento ya de tirar a la basura Google+?

No corramos que las prisas son malas consejeras. Para empezar yo no tengo tan claro que Google haya desechado todos los inputs recibidos a través de Google+, que se haya cargado el autorship del snippet de las SERPS es una cosa… otra es que haya tirado toda la información de esta red social por el retrete y que no conste en ninguno de los algoritmos (más de 200) que el buscador usa para el indexado.

Además como os habréis fijado desde hace un tiempo, en los resultados de las búsqueda de Google aparece siempre (o casi siempre) mínimo un resultado de un amigo tuyo de Google+, por lo que aunque no sea un posicionamiento “orgánico de diccionario”, no deja que puedes tener un buen número de visitas en el caso que tu perfil de Google+ tenga un buen número de seguidores.

Resultados al buscar "google webmaster tools" en Google

En la parte inferior veréis que mis amigos Edu y Jaime se cuelan en las SERPs por “webmaster tools”. Una KW imposible de posicionar pero que gracias a los círculos de Google+ los muestra (con foto de autor incluso)

 

Una nueva estrategia sería, para páginas webs de clientes y Keywords competidas, intentar dar fuerza al Google+ y conseguir muchos seguidores, de esta forma te asegurarás que aparecerás en su primera página por este tipo de búsqueda.

Opinión personal

Creo que Google ha realizado un paso atrás muy fuerte en cuando a los algoritmos de búsqueda relacionados con el autorship y por la información facilitada por Google y lo expuesto en este artículo, lo entiendo. De todos modos creo que se ha perdido la personalización de las búsquedas que Google anunciaba hace poco tiempo.

Ver la foto de autor en los resultados de Google marcaba la diferencia sobre si entrábamos en una web corporativa o en un blog. Muchas veces buscamos una información para contratar un servicio (queremos una web corporativa) y a veces para informarnos sobre el tema (buscamos un artículo de un autor). Antes era sencillo discernir entre una cosa u otra, ahora es casi imposible sin hacer un clic.

Por otro lado, mirando más en las búsquedas, parece que Google deberá seguir probando algoritmos para no depender de los enlaces para valorar la popularidad y relevancia de una página web. Parecía que el authorship era una gran idea, pero ha fracasado porque Google tiene que aprender a “ordenar la información de Internet” no “dictar como se debe escribir la información de Internet”. Es decir: Google debe aprender a diferenciar un texto “Spamer” a un texto “original y de calidad” sin “obligar” a los usuarios a realizar ciertas acciones, ya que la gran mayoría de estos usuarios hacen precisamente lo que las “guidelines de Google” piden: Son autores que escriben para usuarios, sin tener ni idea de SEO, sin tener ni idea de que existe el posicionamiento y en definitiva de una forma natural. A estos autores no les podemos obligar a hacer otra cosa que no sea escribir.

La entrada Después de las fotos, Google elimina el authorship. Google + ahora es menos. aparece primero en Activa la web.

via Activa la web http://ift.tt/1njQ6CU

Me acabo de levantar con posiblemente la noticia del mes dentro del marketing digital y no salgo de mi asombro y de mi cabreo. Google ha decidido eliminar las concordancias exactas y de frase en Adwords, siendo todas las keywords (entiendo) de concordancia amplia.

exact match

Esto significa que si por ejemplo quieres anunciarte como un consultor SEO en Barcelona, antes creabas varios grupos entre los que estaban:

  • SEO Barcelona: Palabras clave exactas de búsquedas “SEO Barcelona” “Consultor SEO Barcelona”…
  • Barato: Palabras clave exactas donde el término “barato” y/o “económico” estuvieran dentro. Consultor SEO Barcelona Barato, SEO Económico en Barcelona etc.
  • Agencia: Lo mismo que lo anterior, pero en búsqueda de “agencia”. Agencia SEO Barcelona.

Lo bueno de poder poner todas estas palabras en concordancia exacta es que podías crear un anuncio específico para cada tipo de búsqueda y crear para grupo de anuncios una landing optimizada, en base si la búsqueda se basaba en un “seo barato” o en una “agencia de seo en Barcelona”.

Ahora con la eliminación de la concordancia exacta esto desaparece, pues el primer grupo de anuncios “SEO Barcelona” también saltará cuando se busque “SEO Barcelona económico” o “Consultor SEO Barcelona Barato”.

¿Cómo afectará eso a nuestras campañas?

En un estudio realizado por wordstream se comenta que eso sólo va a afectar al 3% de nuestra campaña de adwords, pero siempre va a ser relativo al tipo de campaña, pudiendo afectar muchísimo más.

Además no olvidemos que si tu “top keyword” se encuentra dentro de este 3% afectado, puedes tener un incremento muy significativo del CPA, pues el grupo de anuncios que antes te gastaba X, ahora tendrá un gasto muy mayor, reduciendo tu beneficio neto.

Además me da la sensación que ahora será mucho más difícil poder concretar un tipo de anuncio para una palabra clave en cuestión, es decir que seremos menos precisos, tendremos anuncios menos cualificados para aquel tipo de búsqueda, tendremos landings que van a mostrarse para varios tipos de búsquedas muy distintas entre ellas (se mezclarán búsquedas transaccionales con las informacionales y les vamos a ofrecer la misma landing en muchos casos)… con lo que aunque el efecto inmediato puede ser de sólo el 3% de nuestra campaña, creo sinceramente que habrá muchos daños colaterales.

¿Por qué Google está haciendo este cambio?

Parece que es parte de todo el proceso de cambio del Google Colibrí, donde se pretende entender la búsqueda del usuario y ofrecerle un mejor resultado según la búsqueda que este realice. Si no tienes muy claro qué es el colibrí, tienes este artículo donde lo conté: Google Hummingbird.

La idea supongo es que los anuncios de adwords también entren dentro del algoritmo de Google, y si este entiende que una persona busca una información relacionada con tu anuncio, este anuncio salga, aunque no active una “exact match”.

Esto en cierto punto lo veo bien si no fuese porque colibrí no funciona nada bien en España! Quizás en inglés la cosa funciona mejor (también es un idioma mucho más sencillo) pero en castellano las cosas se tuercen.

Google sigue sin entender la búsqueda y tal como dije en el artículo de Hummingbird, ahora mismo si buscamos “restaurante para 20 personas” Google aun no entiende si este 20 se refiere a grupos de personas, al precio del menú o horario de apertura a las 20h, por lo que puede dar cualquier resultado que contenga cualquiera de estas informaciones.

Resultado de google hummingbird

Ahora la cosa no es “grave” pues los usuarios clican orgánicamente… pero cuando un restaurante esté pagando por el PPC de un tipo de búsqueda que no le interesa?!? La cosa cambiará.

Aspectos positivos

Nada en este mundo es bueno o malo… ¿tiene algún aspecto positivo el cambio de adwords? Bueno, menos trabajo para los gestores de cuentas de adwords. Ahora ante la imposibilidad de crear campañas muy acotadas, creando muchas landings y distintos copys, la cosa se va a hacer más facilita… Y es que si queremos hacer algo similar a como trabajábamos hasta ahora habrá muchas más horas de trabajo y no todas las cuentas de adwords se lo van a poder permitir.

Para entendernos… no se va a poder crear un copy específico para cada una de las keywords que tengamos, pues sabemos que cada una de estas keywords están activando muchas otras…por lo que no se podrá ser tan preciso.

Opciones que se me ocurren para trabajar como ahora

No sé si Google habrá pensado en ello (seguro que sí) pero en el caso que tengamos una Keyword por la que estamos optimizados, por la que pagamos un PPC interesante, que nos da un volumen de conversiones muy bueno y por lo tanto no queremos que nos cambien las reglas del juego, tenemos una forma de mantener este PPC y el mismo volumen de CPA, con el uso de las palabras negativas.

Recuperando el ejemplo anterior, si yo quiero que un grupo de anuncios únicamente salte por “SEO Barcelona” y no me salte por nada relativo a “barato, económico y/o agencia” puedo poner estas palabras negativas y así me aseguro trabajar este grupo de una forma más acotada. Lo que siempre podrá salir una palabra que no te esperas como puede ser “SEO Barcelona para novatos” y la jodamos, por lo que siempre tendremos que estar pendientes de las búsquedas y añadir negativas constantemente, con el coste de tiempo y de dinero (estas negativas las descubrimos cuando pagamos por ellas) que eso implica.

Conclusiones personales

Como siempre creo que Google hace los cambios para ganar más dinero. Con este cambio estoy seguro que nuestras campañas van a gastar más dinero, veremos cómo aumentarán el número de clics (ya que empezaremos a aparecer por un montón de búsquedas que antes no lo hacíamos) y no tengo tan claro que el CTR aumente y mucho menos las conversiones.

Sea como sea creo que Google va detrás de cargarse todo lo que no pueden controlar y no me extrañaría que en breve no seamos capaces de conseguir una sola conversión de adwords como no sea con el “Optimización de conversiones”. Tiempo al tiempo ;)

La entrada Google elimina la Concordancia exacta y de Frase en Adwords. aparece primero en Activa la web.

via Activa la web http://ift.tt/1lbouEl

Estas vacaciones he tenido la gran suerte de descansar y desconectar (lo justo) de mi trabajo, y si no he desconectado más ha sido básicamente por mi culpa y porque he tenido varios encuentros con personas que han empezado un proyecto web y ven que la cosa empieza a funcionar de forma natural y me he animado a contarles cómo hacerlo para que funcionase un poco mejor gracias al SEO. Obviamente si una cosa de forma “natural” funciona, si le metemos un poco de caña “artificial” va a funcionar más.

Cómo empezar un blog o un proyecto web

CC Image: Rich Anderson Flickr

 

No, el SEO no es malo

Ya sé que desde Google se nos vende la historia de que las páginas webs tienen que ser naturales, tienen que estar pensadas para el usuario y no para los buscadores etc etc etc.

Esto hasta un punto lo comprendo y en cierto modo lo apoyo, pero no voy con esta premisa por delante, no ya sólo porque llevo muchos años metido en todo esto, sino porque aun llevo muchos más años metido en comunicación y sé que si una cosa no se planea y se deja a su suerte, lo más posible es que no funcione, que falle, que tenga errores etc.

Recuerdo que en mi primera clase de la universidad nos pusieron un caso.

Si en India ha descarrilado un tren y han muerto 400 personas, y aquí en Barcelona hay una fuga de gas que mantiene toda la Diagonal (una de las arterias principales de Barcelona) cortada durante 5 horas… ¿Con qué noticia sales en portada? Respuesta correcta: Con la fuga de gas.

¿Por qué? Pues porque a la gente, por proximidad le interesa más lo que ha pasado en su ciudad, y aunque no es un hecho noticiable tan grave como el de la India, vas a vender más periódicos. Entonces, no importa tu profesionalidad, no importa tu rigor periodístico… en el fondo necesitas vender para generar negocio, y para ello hay unos señores que con un seguido de estudios del usuario saben con qué tienen que salir en portada. 

Si lo movemos a Internet

¿Vas a escribir sobre lo que crees o sobre lo que quieren tus usuarios? ¿Si tus usuarios te piden artículos de “SEO” les vas a dar “Social Media”?

Si lo que quieres es un blog personal donde no te importan ni las visitas ni la posible monetización, puedes hacer lo segundo. Pero no nos engañemos, hobby aparte, todos queremos ver una recompensa a nuestro esfuerzo, ya sea en popularidad o en dinero.

Por lo tanto, debemos tener una estrategia, aparcar relativamente la naturalidad de nuestros textos, y definir:

  • El tipo de publicaciones que vamos a realizar: en qué días publicaremos las entradas más relevantes (todos sabemos que hay unos días que se reciben más visitas que otros… por ejemplo un blog de cine posiblemente recibirá más visitas un fin de semana, pero no uno de SEO como en mi caso)
  • Monitorizaremos la reacción de nuestra audiencia: Qué tasa de rebote tienen nuestros nuevos artículos, qué artículo tiene la menor y vamos a investigar el motivo (quizás hemos enlazado más a otros artículos y esto ha generado un clic, quizás la forma del texto es distinta y ha gustado más)
  • Por donde nos entran los usuarios: ¿Redes sociales? Pues vamos a darle caña a las redes sociales. ¿Por un foro? Pues vamos a ser un poco más activos en esa página. Esto sin descuidar que constantemente debemos buscar nuevas vías de captación de tráfico, es decir que podemos decir también lo mismo pero al revés: ¿Tengo mucha entrada de redes sociales? Pues voy también a darle más caña a los foros a ver si funcionan ;)
  • ¿Qué tipo de contenido busca mi usuario? Hacer un keyword research es básico para saber qué tipo de contenido es el que más busca tu audiencia y así podérselo dar. Si una cadena de televisión sabe que un tipo de programa la reporta gran audiencia… ¿qué hace? Pues crear más tipos de programas como aquel. ¿Y qué hace la competencia? Copiar e intentar mejorar la idea de la primera cadena para quedarse con parte de aquella cuota de mercado que ahora mismo no tiene.
    Ya sé que cuando se empieza normalmente se quiere escribir sobre lo que a uno le gustaría encontrar en una web de esa temática, pero desde un punto de vista de marketing: ¿Para qué vas a escribir sobre lo que tú quieres escribir, si escribiendo sobre lo que quiere tu público vas a recibir 10 veces más visitas?
  • Conocer a la competencia: Acaso abrirías un bar o un restaurante en un barrio sin antes haber ido a los establecimientos de los alrededores para ver qué hacen, que tipo de público tienen, que tipo de carta ofrecen, qué precios dan…
    Nunca puedes abrir la persiana de un negocio sin saber qué está haciendo tu competencia y en Internet la cosa no es muy distinta: ¿Qué hace tu competencia? ¿Qué hace bien?, ¿qué hace mal?, ¿por qué tipo de temática se mueve?, ¿tiene muchos usuarios? ¿Pocos? ¿Estos usuarios participan en su foro o en sus comentarios? ¿cómo tiene las redes sociales? Muchos pocos fans, mucha poca actividad… ¿Hay muchas webs y blogs que enlacen con la web de tu competencia? ¿Tiene publicidad tu competencia? ¿Adsense o publicidad contratada?
    Todo esto y más cosas que se nos podrán ir ocurriendo nos darán una idea de por dónde van los tiros. Piensa que tienes personas que antes que tú han empezado un proyecto similar y seguramente han ido cagando y corrigiendo cosas hasta llegar a lo que son ahora. Debes intentar aprovecharte de sus errores para ser más ágil y no repetir los suyos (piensa que te llevan años de ventaja).
  • SEO (Search Engine Optimization): Porque no es lo mismo publicar un post con un título natural, que con un título natural optimizado para SEO. Porque no es lo mismo escribir de forma natural que de forma natural optimizando para SEO. Y desde Google nos pueden decir misa, pero eso es así, por lo que es muy recomendable leer guías básicas de SEO, saber al menos aspectos como:
    – Titular correctamente para SEO con uso de Palabras Clave
    – Uso correcto de los headings (etiquetas H1, H2…)
    – Repetición de palabras clave óptima
    – Uso correcto de las negritas y cursivas para optimización SEO
    – Uso de las imágenes y etiquetados correctos
    – Consejos básicos sobre optimización SEO de un BLOG (eliminación de la nube de tags, no indexado de los tags salvo que se haga por razones específicas…).

Para todo esto nos harán falta herramientas, algunas totalmente gratuitas como adwords, analytics, ubersuggest… y algunas de pago que mejor tengamos a alguien que nos las deje o tiraremos el dinero del primer año del blog en ellas, tales como SEMrush, majesticseo…

Tampoco nos iría mal tener nociones básicas de la plataforma con la que vayamos a trabajar. Realizar una instalación limpia y segura de nuestros CMS, configuración para los backups, instalación de temas seguros, configuración de plugins… para que no tengamos que llorar en un futuro y re-hacer el trabajo y esfuerzo de meses.

Y la verdad es que saldrán muchas otras cosas que seguro que ahora me olvido, pero quería escribirlo todo y empezar a hacer una guía paso a paso de como montar un proyecto online para monetizar y/o al menos ganar relevancia dentro del sector.

Porque aunque pueda parecer imposible al principio, con una buena estrategia se pueden conseguir resultados en muy poco tiempo, y cuando hablo de poco tiempo me refiero a semanas. Os pongo un ejemplo de un proyecto que empecé hace 3 semanas:

visitas diarias google analytics

De 0 a casi 500 visitas diarias en 3 semanas y en aumento contante

tráfico orgánico

Y las entradas orgánicas por Google están en una continua subida, esto significa que la web se posiciona correctamente en 3 semanas!

Cuando termine vacaciones, que por mi desgracia será dentro de muy poco, me pongo a redactar guías y consejos. Así que os animo que penséis bien vuestro proyecto y que carguéis las pilas que en setiembre volvemos al cole y le metemos caña.

Feliz verano a todos!

La entrada Cómo empezar un blog o un proyecto web con una estrategia clara aparece primero en Activa la web.

via Activa la web http://ift.tt/1BhTsPR