Saltar al contenido

Tecnología

Tecnología en General

CoFounder TV, colección de los mejores videos empresariales

  • admin 

CoFounder  Tv es un nuevo e interesante sitio web que tiene como objetivo brindarnos en un solo lugar, los mejores videos del mundo empresarial que se han compartido en la web.

http://cofounder.tv/

Si navegamos por la web vamos a encontrar excelente contenido multimedia sobre temas empresariales. El problema es que no siempre son fáciles de localizar, además de encontrarnos con material mal etiquetado que solo nos hace perder tiempo.

CoFounder TV hace todo el trabajo por nosotros, ya que filtra el contenido de la web y selecciona cuidadosamente los videos que integra a su portal. Por el momento cuenta con 200 videos y la promesa de extender la colección, así como tener en cuenta la sugerencias de los usuarios sobre videos que pueden ser incluidos.

Si estás buscando una temática en particular, puedes valerte de las  8 categorías o de palabras claves para filtrar los resultados. Hay una colección impresionante de excelente material que encontraras en CoFounder. Por ejemplo, podrás encontrar videos sobre herramientas de marketing en los medios sociales, oportunidades de negocios, emprendedores, entre otros.

DMOZ: Open Directory

  • admin 

El Open Directory

http://www.dmoz.org/about.html

Un poco de historia

Dmoz nació en 1998, una época en la que cualquier nuevo directorio era comparado, para bien o para mal, al gigante Yahoo. Después de todo, el directorio Yahoo había sido la semilla, y seguía siendo el corazón, del portal más poderoso. De modo que cualquier nuevo directorio debía posicionarse por fuerza ante Yahoo: ¿qué ofrecía que fuese distinto? ¿En qué se diferenciaba?

Dmoz tenía una respuesta a esto: se diferenciaba en su naturaleza colaborativa. A diferencia de Yahoo, no disponía de unos cuantos surfers pagados que se encargaban de introducir webs en el directorio como profesión, sino de un puñado de voluntarios dispuestos a hacerse cargo de aquellos sectores del directorio que coincidían con sus intereses personales; una gran idea que trasladaba el espíritu ‘open source’ del software a los contenidos (algo que más tarde continuarían los wikis). De hecho, el primer nombre de dmoz fue brevementeGnuHoo, hasta que cambió a NewHoo (el avispado lector se dará cuenta de los paralelismos entre los dos nombres y Yahoo).

Es importante notar que el vecindaje con el movimiento ‘open source’ influencia la filosofía de dmoz desde sus inicios, y que define unos límites que no podrá cruzar (y que muchos opinan que han estrangulado las posibilidades del directorio). Y es que una cosa es ser un editor voluntario que dedica cada semana un par de horas a aceptar y buscar recursos para su categoría y así colaborar en una especie de ONG, y otra muy distinta donar tu tiempo a fondo perdido a favor de un proyecto comercial del que se beneficiarán un puñado de desconocidos.

NewHoo reunió rápidamente varios miles de editores voluntarios, y sus ventajas se hicieron rápidamente evidentes. Aquellas categorías que contaban con un editor apasionado por su tema y dispuesto a invertir tiempo en su mantenimiento eran mejores que sus equivalentes en Yahoo. Pero al lado de esto, resultaba evidente la falta de consistencia, con categorías vacías o descuidadas.

A finales de 1998, NewHoo fue comprado por Netscape (que a su vez fue comprado por AOL), teóricamente para potenciar su portal, y pasó a llamarse Netscape Open Directory. A pesar de la compra, el directorio conservó su carácter no comercial (de hecho Netscape lo asoció a Mozilla, el nombre bajo el cual distribuía el código de su navegador a desarrolladores externos (de aquí su dominio: dmoz, «directory Mozilla»). Los fundadores de NewHoo se incorporaron a trabajar para Netscape como ingenieros por la puerta grande.

La asociación con Netscape aportó, además, la estructura ténica necesaria para distribuir los datos del directorio a todos aquellos que quisieran utilizarlos. También debía aumentar el número de usuarios, ya que aunque el crecimiento en editores y listados había sido notable, no había sucedido lo mismo con los usuarios.

Sin embargo, ya conocemos el camino que tomaría por aquel entonces Netscape, y su portal nunca acabó de establecerse entre los grandes. De hecho, dmoz se hizo más conocido gracias al uso que de sus datos hicieron Lycos y HotBot.

Dmoz, te presento a Google

Pero la asociación más importante para dmoz aún estaba por llegar. A partir del 2000, un Google en imparable ascenso también incorporó sus datos. Pero además de permitir navegar por el directorio dmoz, rebautizándolo Google Directory, incorporó a sus resultados principales las categorías del directorio cuando las webs listadas estaban presentes también en dmoz.

Ese hecho, junto a la afirmación de Google según la cual estar presente en dmoz garantizaba la inclusión en el índice principal de Google, asentó en la mente de todos los webmasters la importancia de dmoz. Una importancia que a menudo ha sido exagerada: a veces, existe una mentalidad de «o estoy en dmoz, o no hay nada que hacer». Y no se trata de eso.

La asociación de dmoz con Google ha marcado su período de mayor popularidad. Sin embargo, durante unos cambios en la estructura de presentación de resultados de Google realizados en el 2004, Google prescindió de las características que lo habían asociado de forma más firme con dmoz: las categorías desaparecieron. De hecho, en la versión en inglés de Google, ni siquiera hay ya un enlace al directory.google.com desde sus páginas principales o de búsqueda. Estos cambios se hicieron, según Google, a causa del bajo número de personas que seguían dichos enlaces.

Si unimos al menor apoyo por parte de Google al hehco de que AOL nunca ha destinado más de dos trabajadores a gestionar los aspectos técnicos de dmoz (los aspectos ‘políticos’ quedan casi siempre en manos de los ‘supereditores’ voluntarios) y hace poco por promocionarlo, se abren dudas sobre el papel de dmoz en el futuro.

Sin embargo, hoy poy hoy, la importancia dmoz sigue siendo indiscutible. Con más de 4 millones de webs en su índice, casi 600.000 categorías, y 65.000 editores (aunque probablemente sólo una tercera parte de éstos siga activa), sus resultados sindicados por centenares de webs de mayor o menor importancia, dmoz es el mayor directorio de internet.

Es, por ejemplo, el único directorio a partir de cuya estrucuta de han desarrollado nuevas propuestas de algoritmos para los buscadores generalistas, como Topic-Sensitive PageRank. Probablemente, uno de los servicios en pruebas de google, Personalized Web Search se basa en este principio, y por tanto, en los datos de dmoz.

La polémica bien, gracias

Los puntos alrededor de los cuales se articulan las polémicas acerca de dmoz tienen a menudo dos características en común. El primero es que siempre aparecen una y otra vez. El segundo es que todos nacen de la tensión entre los objetivos originales de dmoz y los objetivos que pudo haber asumido gracias a la posición en la que se encontró.

Y es que a causa de su asociación con Google, y a causa de la creciente monetización de todos los aspectos relacionados con Google y los buscadores, dmoz se convirtió, probablemente sin pretenderlo, en el guardián de la puerta que daría acceso al tráfico de internet a las páginas comerciales. Es decir, un proyecto iniciado lejos del interés económico se erigía en el peaje (real o imaginario) que debían cruzar las webs comerciales.

Esto, por supuesto, no casaba para nada con las aspiraciones iniciales de dmoz, según las cuales se debía escoger las mejores webs para el directorio, no incluirlas todas, y además se primaban los sitios informativos, no comerciales.

Este hecho es la fuente de la mayor parte de conflictos entre dmoz y los webmasters, que se toman bastante mal el hecho que que sus sitios no sean admitidos (ver las quejas en el foro de ayuda de dmoz: www.resource-zone.com).

El efecto «¿Qué hay de lo mío?»

Peores consecuencias aún tiene el hecho de que haya webmasters que, simplemente, no contemplen la posibilidad de no ser listados en dmoz, y que por ello intentan ser asignados como editores a las cateorías de su interés. Este es un punto de permanente conflicto. Hay editores que se apuntan a dmoz simplemente para añadir sus sitios, o para borrar los de sus competidores; pero también hay acusaciones infundadas en este sentido. Evidentemente, que un número significativo de candidatos a editores lo sean para incluir sus sitios (mi sospecha personal es que superan ampliamente a los candidatos realmente espontáneos) comporta que se erijan barreras para mantenerlos fuera del directorio, y que incluso los que han pasado a ser editores activos se muevan en cierto ambiente de sospecha. Cosas que evidentemente, no ayudan a que un proyecto como dmoz, en el que los editores sólo obtienen el reconocimiento de su trabajo, se desarrolle bajo las condiciones idóneas.

Las otras grandes fuentes de problemas de dmoz son su carácter colaborativo y el abandono que ha sufrido por parte de Netscape/AOL. En cuanto a lo primero, incluso los editores con mayores responsabilidades son voluntarios, lógicamente con una disponibilidad limitada. Una buena idea para un proyecto mediano, pero no para un mosntruo con 4 millonres de webs listadas. En esas condiciones, es imposible mantener unos estándares consistentes. Hay categorías en las que el tiempo de espera hasta que una web es revisada es de años, o en las que las webs son rechazadas por motivos aparentemente arbitrarios, hay categorías con entradas duplicadas, con enlaces inactivos, con descripciones excesivamente complacientes con las webs listadas (y es que las barreras anti-webmasters de dmoz no son perfectas)… Estas situaciones apuntan a que, tal como mucha gente opina, dmoz debería tener una opción de alta de pago (por lo menos para las categorías comerciales) que ayudara a mantener un staff especializado. Pero como he dicho antes, la naturaleza de los inicios de dmoz hacen esta vía muy difícil.

Y en cuento a lo segundo, es difícil encontrar alguna web de importancia similar cuyos servidores pasen tanto tiempo caídos o que tarden tanto en responder, o cuyos scripts para sugerir sitios estén tan a menudo no disponibles.

Dejo apuntados otros temas polémicos, como los ex-editores que se convierten en los principales detractores de Dmoz, o el período durante el cual se proporcionó a algunos medios como Rolling Stone la posibilidad de añadir listados directamente, sin pasar a través del control de los editores.

¿Sirve de algo dmoz?

Voy a intentar responder a esta pregunta desde dos perspectivas distintas:

¿Sirve de algo dmoz a los websmasters?

Respuesta corta: sí.

Respuesta larga:

Probablemente, con la menor presencia de dmoz en Google, haya perdido parte de su importancia, y de hecho, ni antes ni ahora ha aportado demasiado tráfico directo. Pero sigue siendo un buen enlace que conseguir, sumado a los enlaces de todas las webs que reproducen el contenido del directorio. Y siempre existe la posibilidad de que algún buscador adopte un algoritmo que se base en la categorización de dmoz, como «Topic Sensitive PageRank».

Pero al fin y al cabo, es sólo un enlace más. Y dependiendo de la categoría de tu web, te será muy, muy difícil que la incluyan. Dmoz tiene un fuerte prejuicio anticomercial. Envía tu web, asegúrate de hacerlo según sus indicaciones, pero no pierdas más tiempo en ello, ni intentes buscar un subterfugio para colarte.

¿Sirve de algo dmoz a los usuarios?

Como he dicho, Google justificó la desparición de las categorías en los resultados del directorio por el bajo uso que se hacía de los mismo. De hecho, no es algo nuevo que los usuarios prefieran los buscadores a los directorios como fuente principal para localizar información en Internet. Y es lógico: un buscador te permite encontrar cualquier texto que se produzca en cualquier parte de una web, si ha sido convenientemente indexada; un directorio, en cambio ofrece un conjunto de informaciones muy limitado: la categoría, la descripción, y el título.

Sin embargo, hay ocasiones en las que el mecanismo de recuperación de información de un directorio es más adecuado. Cuando no buscamos una información concreta, sino webs que traten globalmente un tema, un directorio como Dmoz puede ser una mejor alternativa. Pero la realidad parece ser que que sólo lo usamos si antes nuestro buscador habitual no ha sido capaz de darnos la respuesta que buscábamos. (De hecho, probablemente, en la actualidad la mayor parte de usuarios de directorios no acudan a ellos directamente, sino que los encuentren a través de los buscadores.)

Y a causa de este papel como segunda fuente tras el buscador, personalmente lamento que Google haya decidido prescindir de los enlaces directos a las categorías de Dmoz, un recurso que yo usaba a menudo para encontrar webs sobre el mismo tema que las que había recuperado a través del buscador, y que por cierto solía ser mucho más acertado que su opción de «Páginas similares».

En cuanto a Dmoz versus otros directorios, incluso con todos sus problemas, hay que decir que la diferencia es cada día mayor. Ningún otro directorio dispone de la cantidad de recursos humanos para mantener al día, mal que bien, un directorio generalista. Incluso Yahoo está quedando cada vez más descolgado, dado que sólo se gestionan eficientemente las altas de pago, y la mayor parte de webs informativas que no tienen intereses comerciales, y por tanto no disponen de presupuesto de promoción quedan fuera de él.

Tu propio Dmoz

Una de las características de Dmoz frente a otros directorios es la posibilidad de sindicar sus contenidos, algo que no sólo pueden hacer los grandes portales, sino cualquiera que posea los medios para tratar los archivos en RDF (Resource Description Framework, un lenguaje de metadatos que se puede procesar como un archivo XML).(Los únicos imprescindibles son el de categorías y el de webs).

 

Windows Live Hotmail Postmaster Smart Network Data Service

  • admin 

¿Cómo analizar los correos que llegan a Hotmail y que son consideramos como Span?

https://postmaster.live.com/snds/

Algunos aspectos a considerar:

·         Asegúrese de que han publicado los registros SPF para sus dominios envío y registro con el ID del remitente. Puede encontrar información adicional y enviar su dominio para su inclusión en el programa de Sender ID http://www.microsoft.com <http://www.microsoft.com/>    senderID tenga en cuenta que las normas técnicas (RFC 4408) no aceptan el uso de «ptr» por razones de rendimiento y fiabilidad.

·         Seguimiento quejas de los Usuarios. Windows Live Hotmail también cuenta con un programa para recoger  las opiniones de nuestros usuarios es llamado Junk Email Reporting Program (JMRP). La  Inscripción en este programa es gratuita y le beneficiará como remitente que mantendrá sus listas de correo electrónico actualizada y  compuesta solo con los usuarios Windows Live Hotmail interesados.  Este programa le ayudará a eliminar a los clientes de Windows Live Hotmail que no desean recibir mensajes de correo electrónico de su empresa. Si estás interesado en participar en este programa, visite https://support.msn.com/eform.aspx?productKey=edfsjmrpp&ct=eformts <https://support.msn.com/eform.aspx?productKey=edfsjmrpp&ct=eformts>

·        Windows Live Hotmail ha creado el Smart Network Data Services program.  Este es un servicio que ayuda a los remitentes legitimos a trabajar con sus clientes y socios para reducir el spam de su propiedad intelectual. Para registrarse, vaya a http://postmaster.msn.com/snds/ <http://postmaster.msn.com/snds/>  Este programa permite a un remitente supervisar la salud/estado de sus IPs.

.        Tenga en cuenta que el uso de la herramienta SNDS, la inscripción a JMRP o el registro de sus IPs con Sender ID no evitará que emails enviados desde sus servidores sigan pasando a través de nuestros filtros, cuyo objetivo es ayudar a compañías legítimas a entregar sus mensajes de correo electrónico a los clientes de Windows Live Hotmail.

Únase al Sender Score Cetified Mail Program

Si ha hecho  todo lo anterior y  sigue tienen problemas de capacidad de entrega, le recomendamos que considere la posibilidad de unirse al » Sender Score Certified Mail Program» ( Certificado de Calificación de Remitente ) , un programa de terceros administrado por Return Path, Inc.  Muchos clientes de correo legítimos y comerciantes  han calificado y unido a este programa para mejorar la capacidad de entrega de correo y reducir  que el correo electrónico   se filtre en la carpeta de correo no deseado (Junk Folder).  El programa  (www.senderscorecertified.com) es el único servicio que suscribimos  para  la calificación de los remitentes.

Por  último, recordarle que los pasos anteriormente sugeridos son sólo recomendaciones.

Microsoft no ofrece ninguna garantía de que estos pasos certifiquen la capacidad de entrega a los clientes MSN, Windows Live Hotmail o Live.com.

Para obtener más información sobre mejores  prácticas de envío de mensajes para los usuarios de Windows Live Hotmail, por favor, revise el siguiente documento http://download.microsoft.com/download/e/3/3/e3397e7c-17a6-497d-9693-78f80be272fb/enhance_deliver.pdf <http://download.microsoft.com/download/e/3/3/e3397e7c-17a6-497d-9693-78f80be272fb/enhance_deliver.pdf>

Robots.txt Optimization

  • admin 

Search Engines read a yourserver.com/robots.txt file to get information on what they should and shouldn’t be looking for, and where.

Specifying where search engines should look for content in high-quality directories or files you can increase the ranking of your site, and is recommended by Google and all the search engines.

An example WordPress robots.txt file:

Sitemap: http://www.example.com/sitemap.xml

# Google Image
User-agent: Googlebot-Image
Disallow:
Allow: /*

# Google AdSense
User-agent: Mediapartners-Google*
Disallow:

# digg mirror
User-agent: duggmirror
Disallow: /

# global
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
Disallow: /wp-content/themes/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: /category/*/*
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /*?
Allow: /wp-content/uploads/

Google Sitemaps FAQ (Sitemap Issues And Errors)

  • admin 

Google Sitemaps FAQ (Sitemap Issues And Errors)

Filed under: SEOSitemaps — arne on April 7, 2006

In June 2005, Google announced a new service called Google Sitemaps. This program allows webmaster to submit an index of URLs which they want to have included in Googles web search. It’s free to use and helps Google to get a more complete overview of your pages.

Overview

What is or are Google Sitemaps?

Basically, a Google Sitemap is a file which contains URLs and some additional information for all public pages or documents of your website. Google can read this file and add the defined pages to their index. The Google Sitemaps program is part of the «Google webmaster tools«.

How can I create Google Sitemap for my website?

If you are using the blogging software WordPress, you can use the Google Sitemap Generator for WordPress plugin. Otherwise, you can check the list of third party programs at code.google.com.

Do I need a Google Account to use Google Sitemaps?

There are two ways to notify Google about your sitemap.

  • You can register to the Google Sitemaps program and submit your sitemap. This will also allow you to see some interesting statistics about your site like the most used keywords and spidering problems.
  • If you don’t have a Google account or don’t want to create one, you can notify Google about your sitemap by «pinging» their sitemap server. All you need to is to point your browser to http://www.google.com/webmasters/sitemaps/ping?sitemap=http://www.name.com/sitemap.xml
    Google will check your sitemap for updates regularly, so you don’t need to do this more than once.

Will Google Sitemaps affect my ranking?

There are no evidences that a Google Sitemap will directly affect your ranking. However, it can help Google to index and crawl your page better which may result in a more complete index of your page.

Where can I submit my German (or international) sitemap?

There are no different sitemap programs for languages or countries. Just register to the international Google Sitemaps Program, which is localized in many languages.

Technical questions

What is the maximum size of a Google Sitemap?

According to the Google Sitemap FAQ, your sitemap can contain up to 50,000 URLs or reach a file size of 10MB (uncompressed!). However, I would recommend you to split such large sitemaps into various smaller ones which allows Google to retrieve only the latest ones regularly. This will save you a lot of traffic.

Can I use RSS as my Google Sitemap?

Yes, Google Sitemaps supports RSS 2.0 and Atom 0.3 feeds. However, a Google Sitemap should contain as much pages of your site as possible but a RSS feed contains only the latest ones normally.

Do I have to resubmit my sitemap every time I change it?

Google will check your sitemap for updates regularly, so you don’t need to inform them. However, you can resubmit your sitemap by clicking the «Resubmit» button on the Google Sitemaps Site Overview (Google Account required) or by pointing your browser to http://www.google.com/webmasters/sitemaps/ping?sitemap=http://www.name.com/sitemap.xml
If you are using a program to generate your sitemap it’s likely that there is an option to notify Google about changes automatically.

Can I hide my sitemap from other people?

I don’t know any reason why you should hide your sitemap from other people. They can find most of your URLs by searching with the «site:www.exampe.com» operator in Google. Of course, you don’t need to call it sitemap.xml but my-completely-hidden-sitemap.xml for example.

Does my Google Sitemap have to end with .xml?

No, you can name it whatever you like, just make sure you are sending the correct mime type (text/xml for xml data). You can configure your Apache server to send «text/xml» for your favourite extension by adding «AddType text/xml .yourext» to your .htaccess file or httpd.conf.

Can you give me an example of a Google Sitemap?

Basically, a Google Sitemap looks like the following sample. A «real» sitemap can be found here. (Note that the linked example is styled via XSLT to make it more readable. Use the «Show Source»e; function of your browser to see the actual XML code.) All fields except of «loc» are optional.

  1. <?xml version=»1.0″ encoding=»UTF-8″?>
  2. <urlset>
  3.     <url>
  4.         <loc>http://www.arnebrachhold.de/</loc>
  5.         <lastmod>2006-05-22T12:31:11+00:00</lastmod>
  6.         <changefreq>weekly</changefreq>
  7.         <priority>1</priority>
  8.     </url>
  9.     <url>
  10.         <loc>http://www.arnebrachhold.de/imprint/</loc>
  11.         <lastmod>2006-05-22T13:31:11+00:00</lastmod>
  12.     </url>
  13.     <url>
  14.         <loc>http://www.arnebrachhold.de/foo/</loc>
  15.     </url>
  16.     <!– This is a comment –>
  17. </urlset>

 

How do I know if my sitemap.xml is correct?

You can just submit your sitemap to the Sitemaps program and wait until it’s downloaded the first time. Google will tell you if there are any errors. If you want to validate your sitemap before submitting it, you can use a XML validator to validate the structure of your sitemap file.

Help with error messages

What means the error message «This url is not allowed for a sitemap at this location»?

This error means that your sitemap contains URLs which are not alllowed in your sitemap. Your sitemap can only include URLs which point to files on same domain and the same or deeper directories. Let’s take a small example to illustrate it:
Your sitemap file is saved at http://www.example.com/herbert/sitemap.xml
Your sitemap is allowed to contain URLs like

  • http://www.example.com/herbert/
  • http://www.example.com/herbert/home.html
  • http://www.example.com/herbert/test/index.html
  • http://www.example.com/herbert/info/about/guestbook

but you can’t include URLs like

  • http://www.example.com/ (Higher directory level than your sitemap)
  • http://www.example.com/herbert (Higher directory level, missing trailing slash so «herbert» is treated like a file)
  • http://www.example.com/lusie/ (Higher directory level than your sitemap)
  • http://www.herbert.com (Not the same domain)

You can include the 3 first denied URLs by moving your sitemap one directory higher to http://www.example.com/sitemap.xml
Now you can include all URLs which point to http://www.example.com/ like

  • http://www.example.com/herbert
  • http://www.example.com/
  • http://www.example.com/lusie/
  • http://www.example.com/lusie/all-about-google.html

What means the error message «Invalid date»?

This error means that your sitemap contains an entry which has an invalid last modified date. Google Sitemaps requires the ISO-8601 encoding which has two variations:
– 2005-02-21
This one just contains the year (4 digit), the month (2 digit) and the day (2 digit)
– 2005-02-21T18:00:15+00:00
This one is more complex and includes the year (4 digit), the month (2 digit) and the day (2 digit) followed by the character «T», the hour (2 digit), colon, minute (2 digit), colon, second (2 digit) and finally the time zone with the character «+» OR «-«, the timezone offset in hours (2 digit) and minutes (2 digit).
It’s important to include ALL parts of the chosen date format and pay attention to the correct order. See the ISO-8601 specification for more examples.

What means the error message «We couldn’t find your verification file.»?

Double check that you named your verification file correctly (like Google told you) and that there are no spaces in front or after the file name. If it still doesn’t work, make sure your server returns correct status headers for existing documents (200) and not existing documents (404). You can check this by using a sniffer or HTTP Request Tool.
Enter the URL to your verification file and check that your server returns «200 OK» as the status code. Then try a not existing page and verify that your server returns «404 Not found». If you got a «200 OK» again, review your server configuration about error documents.

Statistics and verification

May I delete my verification file after I verified my site?

You can delete the verification file but Google will check the existence of the file regularly so you will have to create it again soon.

Why does Google check the existence of my verification file regularly or why should I not delete it?

This will allow Google to ensure that you are the current owner of the domain or have the permission to use it. If you buy a domain from another person he will lose the access to your Google Sitemaps statistics after you deleted his verification file.

Can other people view my statistics?

Only people who have write access to your webserver, via FTP for example, can view your statistics after they successfully verified their Google account with putting a file with a specified name on your web space. The file name is given by Google and depends on the Google account name. As long as your webserver is secure, nobody beside you can view your Google Sitemaps statistics.

Do I need a Google Sitemap to view statistics about my website?

No, just sign up to Google Webmaster Tools and add your website. As soon as you verified your submission, you are able to view statistics like crawling errors, top keywords and so on. You don’t need to submit a sitemap for that.

Sitemap Generator for WordPress Plugin FAQ

WordPress needs to long to create my sitemap or I get a timeout error / blank page

Try to increase the memory and time limits which are located under Advanced optionsat the sitemap configuration page. See also this question.

I have no comments (or disabled them) and all my postings have a priority of zero!

Disable automatic priority calculation and define a static priority for posts! There is also an option to define a minimum post priority.

Do i need a Google Account for this plugin?

Maybe. If the «Auto-Ping Google Sitemaps» Feature works, you don’t need a Google Account. If your host disabled the required PHP functions for this feature, you need a Google Account and submit your sitemap once. Google will check the sitemap file periodically for changes.

Do I always have to click on «Rebuild Sitemap» if I modified a post?

No need to do that. If you edit/publish/delete a post, your sitemap gets automatically regenerated!

So much configuration options… Do I need to change them?

No, only if you want. Default values should be ok!

Does it work with all WordPress versions?

This plugin works with WordPress 1.5.1.1 or higher only. Please upgrade if your are using an older version.

I get an fopen error and / or permission denied

If you get permission errors make sure that the script has writing rights in your blog directory. Try to create the sitemap.xml resp. sitemap.xml.gz manually, upload them with a ftp program and set the rights to 777 with CHMOD. Then restart sitemap generation on the administration page. A good tutorial for changing file permissions can be found on the WordPress Codex.

Which MySQL versions are supported?

This plugin works with all MySQL 4, 5 and newer MySQL 3 builds.

Do I need cronjobs to run this plugin?

No, you don’t need any cronjobs. The sitemap gets rebuilt if you edit a post.

The sitemap files could not be written!

Make sure that the files «sitemap.xml» and / or «sitemap.xml.gz» are writable. You have two options to ensure this:

  • Make your blog root writable
    You can make your whole blog root folder writable and the plugin will create the files for you. You can do this by using a FTP program and setting CHMOD to 755 or 777 to your web-root folder. This folder is often named «htdocs», «html», «public» or «httpdocs».
  • Create the sitemap files and make them writable
    If you can’t make your blog root folder writable or don’t want to do so, you can create two new files, name them «sitemap.xml» and «sitemap.xml.gz», upload them to your blog root and use a FTP program to apply CHMOD 755 or 777 to them. To create these files, simply open Notepad, click on «File > Save As», choose «Filetype: All File» and enter «sitemap.xml» as the name. Repeat this step for «sitemap.xml.gz».
  • More information about changing file permissions
    Please look at the WordPress Codex or this toturial to get step by step advices for your FTP program or check the manual.

The last run didn’t finish or I just get a white screen

It could be that your server is not configured to run memory-heavy scripts like a sitemap generator.

  • Try to increase the memory limit on the sitemap options page (start by «4M» and raise the value if it doesn’t help).
  • Try to increase the time limit on the sitemap options page (start by «20» and raise the value if it doesn’t help).
  • If it’s still not working you may not have the permission to change these settings so you need to ask your hoster to raise the limit

What’s the difference between the «sitemap.xml» and «sitemap.xml.gz» files?

The «sitemap.xml.gz» is a compressed version of the «sitemap.xml» file. It has the same content, but is significantly smaller than the other one. This helps you and the search engines to save a lot of traffic. Since all search engines support compressed sitemaps, you actually don’t need the «sitemap.xml», but maybe you or your visitors want to view them from time to time so keeping it doesn’t hurt.

What are the different building modes?

You can choose when your sitemap gets regenerated:

  • Rebuild sitemap if you change the content of your blog
    Your sitemap gets automatically refreshed when you publish or delete a post. If you have really much post, the process may take some time and you have to wait on the posting screen until it’s finished.
  • Enable manual sitemap building via GET Request
    This option allows you to refresh your sitemap using a special URL which is displayed when you click on the «[?]» sign. This url can be used with a cron job for example which refreshed the sitemap every day or every hour. This mode is prefered if you have thousands of post and the automatic building needs to long

What is the update notification?

This plugin can automatically notify Google and YAHOO when the content of your blog changes. This service is free to use, YAHOO just requires an API key which can be freely obtained here. After the search engines recieved the «ping» they may come and crawl your site again. Since the sitemap files contain the last change of every post or page, the spiders should just retrieve the changed ones and save your traffic. The plugin stops the time the notification of every search engines needs and might recommend you to disable this service if it slows down the building process significantly.

About the advanced options

  • Limit the number of posts
    If you have problems with the maximum execution time or memory limit you can limit the number of posts which will be included in the sitemap. Newer posts are included first so your sitemap will stay up-to-date.
  • Increase the memory limit
    Building the sitemap needs a lot of memory. If the memory size is limited via configuration and the script can’t finish the sitemap, you can try to increase this limit by entering a higher value. The values are in megabytes so you can start with «2M» for smaller sites and raise the number until it works. However, it could be that you don’t have the permission to change this value so if it still doesn’t work and you already tried a very high value like 16M, you will need to contact your webhoster and ask him to raise it for you.
  • Increase the maximum execution time
    Like the memory, the maximum execution time can also be limited. If the script doesn’t finish, try to set the time limit to «0» which means unlimited or a high value like «30» seconds.
  • Include a XSLT stylesheet
    Since version 3.05b, the plugin ships a default XSLT stylesheet which makes your XML sitemap human readable. You can specify you own by entering a full or relative URL. Please note that the XSLT stylesheet must be on the same server for security reasons.
  • Enable MySQL standard mode
    Per default, the plugin uses a separate MySQL connection to query the post data in a very effective, memory-saving way. If this doesn’t work on your hosting configuration you can enable the MySQL Standard mode which uses much more memory but should always work.
  • Build the sitemap in a background process
    If your blog contains a large number of posts you may experience a delay after editing or saving a new post or page since it needs some time to generate the sitemap. If you activate this option, your sitemap will be built in background using wp-cron which will avoid the delay. Your sitemap will be generated a few seconds after you’ve hit the save button so the sitemap status at the administration panel won’t show the changes immediately.
  • Exclude posts or pages
    Here you can enter the IDs of posts or pages which will not be included in your sitemap. You can see the IDs of the post or pages in the corresponding management pages. Separate multiple IDs by comma.

Google Sitemaps and robots.txt

You can use the robots.txt file to inform search engines about your sitemap. If you activate this option at the administration panel, the plugin will try to create the file in your blog root. The «File permissions» status below the checkbox will give you a hint if this is possible or not. If the robots.txt file cannot be generated due to insufficient file permissions, please create the robots.txt file by yourself and make it writable via CHMOD. A good tutorial for changing file permissions can be found on the WordPress Codex. The plugin will NOT delete your existing robots.txt file but append the new values at the end.

About this FAQ

I didn’t find an answer to my problem, are there any additional resources?

You can look at the Official Google Sitemaps FAQ, join the Google Sitemaps Group or leave a comment on this post.

What can I do if I have suggestions or corrections for this FAQ?

Suggestions and corrections are always welcome, please write me a mail if you have some and I will update this page .