Doblaje
https://doblaje.fandom.com/es/wiki/Candy_Candy
España
http://www.eldoblaje.com/datos/FichaPelicula.asp?id=5422
Esfera
http://web.archive.org/web/20040215113112/http://doblaje.esfera.cl/anime/candy.html
de usuario deliberadamente caso omiso de las normas de acceso establecidas en el robots.txt archivo. Normalmente, son los agentes que para nada bueno - recolectores direcciones de correo electrónico, despiadados descargadores de sitios web, etc.
Este script PHP en conjunto con el robots.txt archivo está diseñado para identificar tales agentes, y prohibirles el sitio usando el htaccessarchivo.
El mecanismo básico utilizado es incluir una línea en el archivo robots.txt archivo que no permite el acceso a un directorio especial, digamos robottrap .
User-agent: * Disallow: / robottrap /
Para algunos robots gigantes, la existencia de un directorio prohibido es razón suficiente para visitar. Para otros, puede ser necesario para tentarlos con un enlace en su página de índice que es inaccesible a los seres humanos, tales como:
<a href="/robottrap/robottrap.php"> </ a>
El robottrap.php guión tiene tres funciones:
Se registra la fecha y la hora del golpe, el nombre del agente de usuario, la dirección IP de origen, y el nombre de dominio en un archivo. Este archivo se pueden enumerar utilizando la transacción suministrado robotreport.php .
Envía los mismos detalles por correo electrónico a la dirección de correo electrónico indicada.
En él se actualiza el archivo. Htaccess para prohibir que la dirección IP del sitio web.
Hay dos variables que deben ser configurados para permitir el script para adaptarse a las necesidades locales:
El nombre y la ubicación del archivo en el que los detalles de los robots renegados se van a almacenar. Tenga en cuenta que esto debe tener lectura / escritura de privilegios para todos los usuarios.
La dirección de correo electrónico para que los detalles de los agentes deshonestos debe ser enviada.
Las instrucciones completas sobre cómo configurar la trampa robot salvaje se incluye en los comentarios de cabecera de la transacción.
Por último, hay una página web, robotreport.php que muestra una lista completa de los robots que han caído en la trampa. Tenga en cuenta que algunos de los llamados "aceleradores web", que simplemente pre-fetch todos los enlaces de una página a un costo de ancho de banda también será atrapado por la trampa.
Arie Slob amablemente ha señalado que debe haber un intervalo entre cargar el archivo robots.txt nuevo y ajuste de la trampa, para asegurarse de que los robots no son válidos utilizando una versión antigua del archivo de caché. Veinte cuatro horas debería ser