Tengo varios sitios en Coda que me gustaría volver a descargar automáticamente cuando se lo indique. Los sitios se administran en colaboración y me gustaría descargar una copia nueva de los sitios automáticamente. Estoy abierto a AppleScripting, un flujo de trabajo de Automator, un script de shell, una combinación de los tres o cualquier otra cosa que sugiera. ¿Cómo haría para hacer esto?
Editar: ¿Puedo escribir un script de shell para descargar todo el sitio a través de FTP, luego copiarlo en mi carpeta "Sitios" y sobrescribir los datos existentes? Necesito poder hacerlo para más de un sitio, por lo que necesito una forma de pasar el nombre de dominio, el usuario, la contraseña y el directorio al que quiero que se copie.
Puede usar fácilmente wget para esto y escribirlo de la forma que desee. Aquí hay un ejemplo rápido de cómo podría usarlo para descargar y sobrescribir uno de sus sitios en una línea:
wget ~/Sites/domain/ ftp://[username]:[password]@ftp.example.com/www/
Entonces, para hacer varios sitios web, usaría:
wget -P ~/Sites/ -i sites.txt
Y su archivo de texto podría verse así:
ftp://username:password@ftp.site1.com/www/
ftp://username:password@ftp.site2.com/www/
ftp://username:password@ftp.site3.com/www/
Desde la página de manual de wget:
Recursive download:
-r, --recursive specify recursive download.
-l, --level=NUMBER maximum recursion depth (inf or 0 for infinite).
--delete-after delete files locally after downloading them.
-k, --convert-links make links in downloaded HTML or CSS point to
local files.
-K, --backup-converted before converting file X, back up as X.orig.
-m, --mirror shortcut for -N -r -l inf --no-remove-listing.
-p, --page-requisites get all images, etc. needed to display HTML page.
--strict-comments turn on strict (SGML) handling of HTML comments.
Recursive accept/reject:
-A, --accept=LIST comma-separated list of accepted extensions.
-R, --reject=LIST comma-separated list of rejected extensions.
-D, --domains=LIST comma-separated list of accepted domains.
--exclude-domains=LIST comma-separated list of rejected domains.
--follow-ftp follow FTP links from HTML documents.
--follow-tags=LIST comma-separated list of followed HTML tags.
--ignore-tags=LIST comma-separated list of ignored HTML tags.
-H, --span-hosts go to foreign hosts when recursive.
-L, --relative follow relative links only.
-I, --include-directories=LIST list of allowed directories.
--trust-server-names use the name specified by the redirection
url last component.
-X, --exclude-directories=LIST list of excluded directories.
-np, --no-parent don't ascend to the parent directory.
/www/
"me gusta" /www/path/to/file/
. ¿Es eso lo que quieres decir? He incluido algunos wget
argumentos en mi respuesta original que deberían ayudar.
jason salaz
daviesgeek
nthonygreen
daviesgeek