Juan Manuel 4 de diciembre de 2007 a las 10.15
   Imprimir artículo
elWebmaster.com

Los portales de noticias quieren tener mayor control de los buscadores


Actualmente los webmasters pueden crear el archivo robots.txt para indicar a los buscadores qu√© p√°ginas no desean indexar, etc. Pero esto no basta para los editores de sitios y portales de noticias, quienes propusieron un nuevo sistema de control sobre los motores de b√ļsqueda, que les permita por ejemplo indicar por cu√°nto tiempo quieren que sus p√°ginas aparezcan en los resultados de las b√ļsquedas, o qu√© links internos deber√≠an ser ignorados. El nuevo sistema se conoce como Automated Content Access Protocol.

Los motores de b√ļsqueda est√°n ampliando su oferta de servicios e incluyen noticias y libros escaneados, las empresas de noticias y editoriales han empezado a quejarse.

Dicen que Google est√° colgando sus titulares, noticias y fotos sin permiso. Google, por su parte, asegura que cumple con las leyes de copyright, aunque se enfrente a una denuncia por parte de Agence France-Press en estos momentos.

Para evitar esto, las editoriales, empresas de revistas y peri√≥dicos han propuesto un sistema de control, llamado Automated Content Access Protocol, con el que se pueda bloquear la indexaci√≥n de p√°ginas web individuales. Con el uso de este protocolo, los sitios podr√°n limitar el tiempo que los motores de b√ļsqueda retienen las copias en sus √≠ndices o decir al crawler que no siga ninguno de los v√≠nculos que aparece dentro de la p√°gina web.

Google ha dicho que tendr√° que evaluar este sistema para asegurarse de que re√ļne las necesidades de los millones de p√°ginas web que existen, y no solo las de este influyente grupo.

Fuente: The Inquirer


Enviar a Del.icio.us Enviar a Meneame Enviar a Digg Enviar a Fresqui Enviar a Enchilame

Deja tu opinión

© 2007 - 2008 elWebmaster.com | Powered by Wordpress | Diseño CSS y XHTML válido. | Algunos íconos basados en FamFamFam Mini
Acceder