Archivo de la etiqueta: fotografos de stock en españa

como dominar la indexación de googlebot con robot-no follow

robots.txt un archivo determinante para el SEO

googlebot – spider crawler y su relación con el archivo robot.txt.

aprende a controlar los enlaces no follow

el afamado algoritmo de Google, o la formulación mágica por la cual unos websites aparecen en la lista superior de los resultados de búsqueda cuando hemos tecleado una palabra determinada (SEO) de la cual vamos buscando información concreta, es el responsable definitivo de que unos estemos posicionados más arriba que otros, sin tener que recurrir al programa de Google Adsense (SEM), o recurrir al pago por click, ppc- pay per click- para aparecer en las primeras posiciónes.

Dicho algoritmo es responsable del rastreo que Google realiza cada determinado tiempo, analiza cada uno de los websites, blogs, o espacios web, actualizando el estado de nuestra web leyendo el archivo de texto plano que cada paginas web tiene interiormente, el llamado robot.txt, donde en su interior se combina unas instrucciones que pueden ser manipuladas para conseguir que el archivo araña de Google consiga leer todo el contenido del website, solo una parte, o únicamente los valores que nosotros determinemos y sean relevantes para el posicionamiento SEO.

Los parametros conseguidos por el robot de google son los que tras medir y leer el archivo de texto plano contenido en nuestro website (robot.txt) permiten “medir” una web en términos de posicionamiento, para colocarla en la lista de orden determiada, resultados que Google “escupe” cuando una persona, busca una palabra concreta.

el mensaje follow – no follow

el uso del comando follow para determinar que contenido escrito deseamos que sea indexado, por googlebot. Veamos un ejemplo sencillo sobre una estructura de website sencilla;

Suponiendo que este blog fuera un website yo tendria la estructura básica de la W3C. con las etiquetas y metaetiquetas siguientes.

<html>

<head>

<title>Photographystocker fotografia de stock, marketing y seo </title>

<meta name=”description=” content=”Photographystocker es el blog para amantes de la fotografia de stock, marketing seo y nuevas tecnologías.”>

<meta name=”description=” content=”Photographystocker, fotografia de stock, fotografo de stock, fotografia comercial, fotografia agencia, agencias de stock, bancos de imagen, bancos de imagenes, stock agencias, fotografo profesional, agencias de stock, como vender imágenes, comprar imágenes, vender imaǵenes.”>

<meta name=”GENERATOR” content=”PHOTOGRAPHYSTOCKER” /

> <meta name=”origen” content=”photography stocker” />

<meta name=”author” content=”photographystocker” />

<meta name=”locaty” content=”murcia, españa” /> indicativo localización.

<meta name=”languague” content=”es” / idioma de escritura e indexación.

<meta name=”robots” content=”index,follow” />

<link href=”estilos/estilos.css” rel=”stylesheet” type=”text/cs” /> hojas de estilo color, fuente,

<meta name=”robots” content=”nofollow”>ss

</head>

<body>

Cerrando la etiqueta meta name “robots” content=”nofollow” estamos indicando a Gooblebot, que el contenido del sitio marcado entre los campos head-head, las palabras meta de descripción no van a ser indexadas, una opcion que no es conveniente. Asi pue si procedemos a sustituir la <meta name=”robots” content=”follow”>, garantizamos que Google tenga en cuenta el campo meta cada vez que Googlebot realiza su visita a nuestro website.

POLITICA DE GOOGLE RESPECTO AL ATRIBUTO “NO FOLLOW”

  • Contenido poco selectivo para nuestro mercado o spam: Bloquear enlaces, paginas o sitios donde no se confie que generan spam, comentarios inadecuados o sitios websites donde no existe ninguan relacion con la actividad que desarrollamos.
  • Discernir el SEO-SEM para mejorar el análisis de tráfico.: el ranking de una página en los resultados de búsqueda de Google se basa en parte en el análisis (SEM), determinado en parte por el pageranking de un sitio web, para evitar que los enlaces de apgo influyan e nla busqueda, suele usarse el tipo nofollow, de manera que podemos indentificar desde donde concretamente proviene el tráfico web, y discernir si es más eficiente optar por estrategias / SEO o aplicar solo campañas adsense SEM). Si no podemos discernir el origen de l tráfico, no podemos el comportamiento del mercado.
  • Priorización del rastreo: los robots de motores de búsqueda usan los recursos de forma mucho más productiva que si se centran en la priorización al rastreo a través de los enlaces no follow. Se puede usar la configuración del archivo robots.txt para evitar el rastreo de una URL entera que tenga un enlace rel=”me nofollow”, con información poco importante como por ejemplo un sistema de reserva de restaurantes online a través de movil,  (no nos interesa la historia, las noticias o la trayectoria del restaurante sino un sistema online para poder hacer uan reserva de manera inmediata)

 COMO NOS VE GOOGLE CADA VEZ QUE NOS INDEXA CON SU GOOGLEBOT

USANDO EL PLUGIN YELLOW PIPE TOOL O LINUX LINX BROWNSER

El casi desconocido Linx Brownser es una navegador web, que prescinde de muchos “lujos” de los navegadores actuales como mozilla firefox, google chrome o el archiconocido navegador de windows. Linux Linx Brownser es una navegador estrictamente funcional ya que permite visualizar únicamente de forma totalmente espartana, lo mismo que Google considera que es posible leer. La explicación tiene relacion con el comportamiento de los navegadores web, un navegador web esta dotado de la tecnología necesaria para atender el código fuente, (representado por el conjunto de código fuente/código binario) y este a su vez sea transformado en el código alfanumérico -letras,números- para la comunicación humana. Google no entiende de imágenes, tampoco entiende de tecnologías como flash, estilos o colores, a no ser que podamos decirselo de otra forma. De manera que Linux Linx Brownser solo muestra en texto tambien plano lo que únicamente Google es capaz de ver, así sólo indexa para SEO lo que es capaz de interpretar.

Por otra lado el plugin yellow pipe linx es un plugin adaptado para Mozilla Firefox que nos permite aplicar a una página html, la vision del navegador Linx Brownser. Asi pues tenemos dos opciones de visualizar una pagina web y verla igual que la veria Google para indexarla.

Es perfecto para aplicar SEO a tu sitio web, pues mediante Lynx puedes ver el sitio muy parecido a como lo ven los spiders de google, yahoo, etc. Y asi puedes darte cuenta si los links de tu sitio estan visibles y con la informacion correcta antes de agregar el sitio a los buscadores y que estos indexen tus paginas correctamente

https://addons.mozilla.org/en-us/firefox/addon/yellowpipe-lynx-viewer-tool/

stocksy, el nuevo proyecto de fotografía de stock

bruce livingstone ataca de nuevo el mercado del stock

la apuesta livingstone por hacerse de nuevo en el mercado del stock fotográfico

Screenshot from 2013-04-20 14:06:18

Bruce Livingstone el creador canadiense director y fundador de la internacional agencia istockphotos, que fuera uno de los principales y primeros difusoress de la industria fotográfica del stock, ha creado de nuevo una agencia a la medida de las necesidades de los fotógrafos publicitarios. Livingstone que comenzó su andadura sobre el año 2.000 con el proyecto de istockphotos ofreciendo a sus colaboradores comisiones por la venta de imágenes y a sus clientes imágenes de alta calidad a precios asequibles, consiguio en el año 2.006 vender la compañia istockphotos por el valor aproximado de 50 millones de dólares a otro gigante de la imágen Getty Images.

Pero si dabamos por perdido a Livigstone en su proyecto de la fundación Saatchi, y no le veriamos aparecer de nuevo por el mundo del stock fotografico, de ilustración y diseño ahora vuelve de nuevo a reaparecer con el proyecto Stocksy, una nueva agencia de fotografia de stock donde los contribuidores tendran las comisiones más altas en el mundo de las agencias fotograficas de microstock.

La agencia ofrece los siguientes margenes al 50% para sus contribuidores, según el tamaño de las imágenes; S $ 10, M $ 25, L $ 50, XL $ 100. Los requerimientos para los fotógrafos, ilustradores o diseñadores que quieran hacerse un hueco en el mercado con stocksy son altos. No es una agencia para recien llegados al mundo del stock.

aprendiendo el valor de establecer un sitemap

el valor del sitemap dentro de la estructura web.

como funciona el sitemap  para mejorar nuestra indexación SEO

Screenshot from 2013-04-19 16:24:47

El plugin Google XML sitemap enfocado para wordpress, nos ayuda a conseguir nuestro sitemap de manera sencilla, rapida y efectiva.

 

ya me ha llamado otra vez por email un compañero quejándose otra vez que no entiende nada de lo del “sietemapas” ese de no se que del google, pues no comprende el concepto de tan extraña palabra, aludiendo “si yo ya tengo mi web, para que quiero ahora otro archivo codificado en un lenguaje programación XML O HTML que no entiendo.

los denominados sitemaps (en castellano mapas del sitio), son los encargados de informar a el algoritmo de Google acerca del contenido y de las páginas de nuestro sitio web. Escritas bajo denominación de código XML, los llamados en aglosajón “sitemaps” – mapas web son sencillamente un resumen; como una especie de archivo de lista, donde se inscriben todas las paginas -estructuras- de un sitio web, indexando de esta manera todas las direcciones URL de cada pequeño apartado de nuestra pagina-blog, facilitando de esta manera a los robots -archivos robot.txt-. los procesos de rastreo que Google, por si solo no es capaz o no quiere llevar a descubrir una indexación completa.

En denifitiva es una relación o lista que informan al metabuscador Google, Yahoo o Bing, sobre las paginas de tu sitio web. Crear un sitemap es relativamente sencillo pues podemos disponer de plugins en wordpress para conseguir incorporar el sitemap de manera automática, o enviar mediante un archivo plano de tipo texto, o a través de un feed RRS/Atom. Aunque es de preveer que la mayoria conseguira el sitemap de la manera más sencilla posible es decir “automática”. No está de más conocer que se puede tocar con el sitemap, cuando o como es mejor especificar a Google la tarea de indexación mediante el sitemap, pues este puede dar valor e indicar diferentes aspectos que pueden sernos de utilidad a la hora de ofrecer-vender nuestro producto o servicio online.

  • Otorga a los robots.txt, aspectos sobre los metadatos de contenido.

  • Otorga información sobre nuestro apartado de noticias.

  • Otorga información sobre tematicas, tipos de imagen y contenido de las mismas.

  • Otorga información sobre las posibles actualizaciones, frecuencia de actualización, o modificaciones en tu website si tienes mucha tarea de publicación y además publicas de manera regular atendiendo a unas valores de estratégia SEO (dia, hora, momentos más adecuados o de mayor audiencia objetivo).

  • Facilitar la lectura del contenido dinámico del website de tipo dinámico (flash, ajax, …).

  • Mejorar la indexación si tu pagina web o blog es relativamente nuevo, el último algoritmo de google sobre la antiguedad del lugar web.

  • Mejorar la relacion entre las paginas de contenido enlazadas mediante enlaces entrates-salientes.

  • Parafraseando a Google en su manual básico para webmasters “google no facilita o garantiza que el robot.txt rastre o indexde todas las URL”, pero si se usa un sitemap tu web quedaŕa más enfocada a facilitar la información de la estructura de tu sitio cuando el robot-araña de google se pase a hacer el trabajo de rastreo si nos interesa o si no queremos que rastre un apartado determinado del espacio web. Recordamos tambien que la carga en el sito web (velocidad) es determinante para el posicionamiento así como para el -pagerank-.

¿porqué varios tipos de archivos o formas para el sitemap?

La determinación del valor del sitemap escrito en HTMLXML viene dada pues mientras para un sitemap con scripting en HTML (muestra paginas html en navegador) muestra la forma a los usuarios-clientes visualmente en formato de pagina web para encontrar el contenido-producto determinado, el archivo de valor XML esta enfocado “internamente” a la optimización para motores de búsqueda de cara a los metabuscadores Google, Yahoo o Bing.

Los mapas del sitio se elaboran con Google a partir de un protocolo que se denomina protocolo de mapas del sitio 0.9, compatibles con la mayoria de motores de busqueda, pueden verse o buscar su informacion adicional a través de la dirección  http://www.sitemaps.org, para los que querias profundizar en el tema.