Juan Manuel 4 de diciembre de 2007 a las 10.15
   Imprimir artículo
elWebmaster.com

Los portales de noticias quieren tener mayor control de los buscadores


Actualmente los webmasters pueden crear el archivo robots.txt para indicar a los buscadores qué páginas no desean indexar, etc. Pero esto no basta para los editores de sitios y portales de noticias, quienes propusieron un nuevo sistema de control sobre los motores de búsqueda, que les permita por ejemplo indicar por cuánto tiempo quieren que sus páginas aparezcan en los resultados de las búsquedas, o qué links internos deberían ser ignorados. El nuevo sistema se conoce como Automated Content Access Protocol.

Los motores de búsqueda están ampliando su oferta de servicios e incluyen noticias y libros escaneados, las empresas de noticias y editoriales han empezado a quejarse.

Dicen que Google está colgando sus titulares, noticias y fotos sin permiso. Google, por su parte, asegura que cumple con las leyes de copyright, aunque se enfrente a una denuncia por parte de Agence France-Press en estos momentos.

Para evitar esto, las editoriales, empresas de revistas y periódicos han propuesto un sistema de control, llamado Automated Content Access Protocol, con el que se pueda bloquear la indexación de páginas web individuales. Con el uso de este protocolo, los sitios podrán limitar el tiempo que los motores de búsqueda retienen las copias en sus índices o decir al crawler que no siga ninguno de los vínculos que aparece dentro de la página web.

Google ha dicho que tendrá que evaluar este sistema para asegurarse de que reúne las necesidades de los millones de páginas web que existen, y no solo las de este influyente grupo.

Fuente: The Inquirer


Enviar a Del.icio.us Enviar a Meneame Enviar a Digg Enviar a Fresqui Enviar a Enchilame

Deja tu opinión

© 2007 - 2008 elWebmaster.com | Powered by Wordpress | Diseño CSS y XHTML válido. | Algunos íconos basados en FamFamFam Mini
Acceder