Archivo de la etiqueta: Cloud Computing

La nube

Desde finales de 2008 he venido escribiendo muchos artículos sobre Cloud Computing, incluso he llegado a hacer mis pinitos con el tema: sin ir más lejos todas las imágenes de este blog están alojadas en bucket en Amazon S3… o lo que es lo mismo, no tengo ni la más remota idea de donde están exactamente, sólo sé que están en un lugar supuestamente más seguro del que yo podría ofrecerles.

Tal vez eso sea la nube, disponer de recursos ilimitados, replicados en decenas de sitios, encriptados, paquetizados en unidades lógicas… donde todo es ficticio. Te logueas en un sistema operativo, pero realmente no te estás conectando a ningún ordenador, sino que abres una instancia en un super-equipo que gestiona un montón de peticiones al mismo tiempo.

Ya no compras un ordenador, te facturan por horas la capacidad de proceso que consumes, la TB que ocupan tus archivos, los Kbs que transmites… y te facturan un precio distinto dependiendo de si esa información aterriza en USA, Europa, Asia… todo es muy complejo, todo es etéreo, como arena que intentas mantener en tu mano y persiste en escaparse entre tus dedos.

Todo es muy complejo, tanto que aun explicado con pasión, consigue aburrir a la mayoría. Sería el futuro, si no fuera ya el presente… un presente sólo contenido por el limitado número de direcciones IP sobre el que está asentado actualmente el Internet que conocemos (algo que se espera quede superado con IPv6) y por el escaso ancho de banda con el que aun nos conectamos.

El primer factor limita el número de dispositivos que pueden estar conectados a la red, en un futuro próximo todo nos vendrá con una dirección IP fija de fábrica (y podremos saber si nos queda leche en el frigorífico comunicándonos directamente con él a través de nuestro móvil), el segundo limita la cantidad, calidad y rapidez a través de la cual fluirá la información por la red, cuando el ancho de banda mejore nada impedirá que podamos jugar a un juego de consola… sin disponer ni del juego, ni de la consola en nuestro hogar, sólo tendremos que abrir una sesión en un servidor a miles de kilómetros y pagar un precio por minuto jugado (y por supuesto no habrá `lag´)

Un futuro tan complejo como apasionante.

AFR – ratio anual de fallo

…volumes that operate with 20 GB or less of modified data since their most recent Amazon EBS snapshot can expect an annual failure rate (AFR) of between 0.1% – 0.5%, where failure refers to a complete loss of the volume. This compares with commodity hard disks that will typically fail with an AFR of around 4%, making EBS volumes 10 times more reliable than typical commodity disk drives

Amazon Elastic Block Storage (EBS)

 

Moviendo todas nuestras fotos a Amazon S3

Este esquema muestra como hemos hecho para pasar todas las fotos de nuestros blogs a Amazon S3.

Siento una enorme admiración por el proyecto AWS (Amazon Web Services)… ¿quién podía pensar que Amazon, el mayor retailer online, de repente se iba a convertir en proveedor tecnológico y buque insignia del cloud computing?

Aunque utilizo S3 desde el año pasado, cuando empezamos a volcar ahí nuestras copias de seguridad, hasta la fecha nunca nos habíamos planteado usarlo como hosting de imágenes… pero ha llegado un momento en el que las imágenes de más de cinco años de publicación en todos nuestros blogs nos han desbordado y no tiene sentido que la mayoría de los recursos del servidor se desaprovechen sirviendo archivos en lugar de sirviendo webs de manera más eficaz (al fin y al cabo como su propio nombre indica un webserver es un servidor de webs).

Para mover todas las imágenes ha habido que reprogramar varios componentes de nuestro CMS para conseguir que las imágenes se carguen en Amazon S3 en lugar de en topmadrid.com, dolcecity.com…

Me centraré en cómo ha quedado ahora el proceso:

1 – La imagen es cargada por el escritor en el CMS con CKFinder, cada escritor tiene una carpetas con sus imágenes que ellos gestionan, todo ello en enzo.es que es donde está instalado nuestro CMS.

2 – Cuando se publica el post, se realiza una copia de cada imagen en otra carpeta que hemos llamado “cache” y desde ahí se sube a Amazon S3 (utilizando el API REST de Amazon S3 y todo programado en el arcaico vbscritp… que tiene mérito)

3 – Una vez todas las imágenes están subidas se inicia el asintente para crear las thumbs para este proceso necesitamos tener la foto en el servidor donde está instalado el componente con el que las hacemos ASPjpeg, por eso el CMS revisa la carpeta de caché para ver si sigue ahí la foto y sólo en el caso de no encontrarla se la descarga de vuelta desde S3 (esto es necesario porque la carpeta caché se vacía cada noche y a veces quieres rehacer una thumb de un post que colgaste hace tiempo por lo que la foto original ya no está en la carpeta cache y hay que traerla de S3).

4 – Las thumbs se guardan en enzo.es durante el tiempo suficiente para poderlas pasar también a Amazon S3, después se borrán.

A diferencia de antes ya ninguna foto pasa a los blogs de destino, todo está o temporalmente en enzo.es o en su emplazamiento defitivo en Amazon S3 quedando todos los archivos de cada blog organizados en buckets independientes:

Aprovechando que teníamos que hacer este cambio hemos solucionado un problema que habíamos heredado de blogger:

- Las imágenes de los posts en lugar de colocarlas todas en la carpeta /uploaded_images/ ahora van clasificadas por años y mes, igual que los posts.

- Por su parte las thumbs, para no tenerlas todas juntas como antes en la carpeta /img_thumbs/ se van distribuyendo de manera automática en carpetas de 100 en 100, con lo que evitamos los problemas de la situación anterior: tener carpetas con más de 30.000 imágenes y creciendo que sólo para conseguir listar sus archivos ya era todo un reto.

Sólo nos falta un último empujón para que las galerías entren en el nuevo circuito de S3 y con eso la “migración” estará completa. Los beneficios del cambio son claros, como se puede leer en este post de Amit Agarwal mover todas tus imágenes a Amazon S3 descarga enormemente de trabajo a tu servidor:

En servidores donde corremos aplicaciones hemos comprobado que algunos procesos se ejecutan ahora muchísimo más rápido, tenemos por ejemplo un cron que llama a una página a las 20:00 y que solía terminar cerca de las 22:20… ahora el mismo proceso termina a las 21:45 lo que supone más de media hora de diferencia.

 

Cloud Computing Revolution

Me he dado cuenta de que ya llevo escritos varios artículos sobre Cloud Computing o Computación en la nube, un tema que me interesa muchísimo y al que os recomiendo que os enganchéis cuanto antes…

Activity Report CloudFront: por el momento me lo puedo permitir
El coste es pequeño, sobre todo porque no pagas cuotas de alta… pero tampoco es como para tirar la casa por la ventana: como se te dispare el consumo te puedes llevar un buen susto con la factura….
Amazon CloudFront: sirviendo contenido en S3 más rápido
Con Amazon CloudFront podemos distribuir nuestro contenido alojado en Amazon S3 mucho más rápido y con menor latencia. Aquí explicamos cómo implementarlo en nuestro site para mostrar un video flv….
CloudBerry Explorer, un explorador gratuito para Amazon S3
Los que usamos Amazon S3 estamos de suerte, hasta el momento los navegadores que existían no estaban muy conseguidos o eran de pago como Bucket Explorer. Pero se acaba de lanzar la beta de CloudBerry….
Amazon Web Services: adorablemente ariscos
Si la semana pasada fue la de DropBox, esta sin duda ha sido la de Amazon S3 y no puedo cerrarla sin comentar algo que me ha resultado curioso sobre este servicio……
Tus copias de seguridad on-line con Amazon S3
Para todos los que nos pasamos las horas pegadas al ordenador, las copias de seguridad es una asignatura pendiente que nunca terminamos de aprobar: conoce las ventajas de utilizar Amazon Web Services….
Tus copias de seguridad: con Amazon S3 y Jungle Disk
Como automatizar tus copias de seguridad en los datacenter de Amazon S3 utilizando Jungle Disk, un estupendo programa que sólo cuesta 20$….
Dropbox, 2GB gratis y olvídate de los pen drive
Dropbox, es una aplicación increíble… desde que anoche la descubrí estoy entusiasmado, realmente va a cambiar mi forma de trabajar. …

Activity Report CloudFront: por el momento me lo puedo permitir

El coste es pequeño, sobre todo porque no pagas cuotas de alta… pero tampoco es como para tirar la casa por la ventana: como se te dispare el consumo te puedes llevar un buen susto con la factura.

A continuación una captura de mi Amazon Activity Report con el detalle de lo que por el momento me está costando compartir mi super video sobre Gears of War 2 alojado en Amazon S3 que muestro a través de CloudFront.

Teniendo en cuenta que ocupa 27 Mb y que llevo consumidos 0.8656 GB… o lo que es igual 885 Mb, el video se habrá reproducido según esto aproximadamente unas 25 veces completo y sin embargo hay contabilizadas 55 requests (por lo que un 50% de las personas lo dejaron a medias): la cifra es coherente con las 114 paginas vistas de la páginas que contiene el video.

Ponte que en lugar de tan poco el video su hubiera visualizado 4.773 veces como aquel que subí a YouTube con fragmentos de Manhattan de Woody Allen, estaríamos hablando de 100 veces más, es decir unos 17 $… que ya empieza a ser dinerillo. Claro está que el video lo he subido a propósito con mucho peso, lo podría haber comprimido mucho más como hacen en YouTube.Aclaro que los 1,88 $ que llevo gastados este mes en S3 (Amazon Simple Storage Service) corresponden a las copias de seguridad que realizo a diario con Jungle Disk… sólo unos pocos céntimos deben corresponder a la subida de las 27 Mb del video.

Lo que está claro es que trabajar con ficheros grandes y mucho tráfico sigue siendo costoso, sobre todo si los quieres compartir a alta velocidad y con baja latencia. Para los que no somos muy pijos lo más barato sigue siendo YouTube y este tipo de pruebas nos permite hacernos una idea del coste que debe implicar mantener una web de este tipo.

Le pase el link de mi artículo a Albert Blanch que sabe un montón sobre CDNs (y casi todo) y estos fueron algunos de los aspectos positivos que destacó:


Muy interesante el servicio.
- Tiene un precio mucho más económico que el resto de CDNs que he consultado.
- Como comentas en el blog, la latencia es muy baja a pesar de no contar con un nodo en España. Los nodos en Europa están en Amsterdam, Dublin, Frankfurt y Londres (creo que este último es el que sirve las peticiones originadas en España).
- Podemos usar un subdominio propio a través de una entrada CNAME en nuestro DNS. Hasta 10 subdominios podemos asignar a cada distribución.

Amazon CloudFront: sirviendo contenido en S3 más rápido

Con Amazon CloudFront podemos distribuir nuestro contenido alojado en Amazon S3 mucho más rápido y con menor latencia. Aquí explicamos cómo implementarlo en nuestro site para mostrar un video flv.

Llega un momento en donde tu cliente pronuncia las temidas palabras: “quiero videos en mi web”… y tú ya empiezas a sudar pensando en ancho de banda, concurrencia de usuarios, ralentización de servidores y sobre todo en aumento de costes. Cuando confluyen las palabras archivos grandes y mucho tráfico, casi todos nos echábamos a temblar… hasta que llegó Amazon Web Services.

Con Amazon S3 podemos alojar ficheros de gran tamaño y pagar un precio muy razonable por la transferencia consumida, con la gran ventaja de que las descargas ya no estresarán nuestro servidor, que podrá centrarse en generar y servir las páginas rápidamente.

Pero cuando uno habla de videos y archivos de 27 Mb como el que nos ocupa, no sólo quieres que el coste no se te dispare, también necesitas rapidez: lo último que deseas es que tu cliente pulse “Play”… y que no ocurra nada. CloudFront nos asegura que la descarga será mucho más rápida y que la latencia se verá reducida al mínimo.

Vamos a ver con un ejemplo práctico lo sencillo que es usar CloudFront sobre S3, para ello voy a compartir con vosotros un video en formato FLV que he editado con algunos buenos momentos jugando al Gears of War 2:

Paso 1 - Lo primero es darse de alta tanto en S3 como en CloudFront, en mi caso sólo he tenido que darme de alta en el segundo porque ya utilizo a diario S3 para realizar las copias de seguridad de la empresa. Como ya sabréis darse de alta no conlleva ningún coste, Amazon sólo te cobra por lo que consumes.

Paso 2 - Utilizando CloudBerry Explorer o similar, nos vamos a crear un bucket para la ocasión. Un bucket es el nombre que se le da a las carpetas en el raiz de tu cuenta S3, tendrás que encontrar un nombre aun disponible porque éste es a su vez el nombre del subdominio que te asignará S3. En mi caso creo “fernandoplaza” y por tanto mi subdominio en Amazon será: fernandoplaza.s3.amazonaws.com.

Subimos a una carpeta dentro de nuestro bucket el fichero que queremos compartir, en mi caso un FLV:

 

Paso 3 - Mientras que se sube vamos a aprovechar para ir creando una “Distribution”, para ello nos descargaremos en Firefox un programa gratuito S3 Organizer (con esta herramienta puedes hacer también el paso anterior si quieres). Configúrala para que acceda a tu cuenta S3 y puedas visualizar tus bucket, después haz clic con el botón derecho del ratón sobre el bucket recien creado y elige “Manage Distributions”… después pulsa el botón “Create Distribution”:

Con esto Amazon creará otro subdominio pero esta vez en cloudfront.net que es una imagen del nuestro, es decir, puedes acceder a los mismos ficheros que en tu bucket original pero ya a través de CloudFront y por tanto mucho más rápido.

Este proceso puede tardar unos cinco minutillos, el status de la petición pasará de “InProgress” a “Deployed” (hay que pulsar sobre el icono de refrescar) y entonces ya sabremos que ha terminado:

Paso 4 - Por último sólo tenemos que asegurarnos de que al fichero FLV que hemos subido se puede acceder públicamente, para ello revisaremos los permisos y comprobaremos que “Todos lo usuarios” pueden “Leer” el archivo. Esto se puede hacer también con CloudBerry Explorer:

Listo! Ya sólo queda ver el resultado, para ver si es tan rápido como dicen.

Para reproducir los FLV desde la web yo utilizo JW Player, que para uso no lucrativo es gratuito, incrustaremos el código necesario y llamaremos al video utilizando la URL en “clodufront.net”.

Este es el resultado final, a mi se me carga muy rápido teniendo en cuenta que son casi 30 Mb… ¿y a vosotros?




CloudBerry Explorer, un explorador gratuito para Amazon S3

Los que usamos Amazon S3 estamos de suerte, hasta el momento los navegadores que existían no estaban muy conseguidos o eran de pago como Bucket Explorer. Pero se acaba de lanzar la beta de CloudBerry.

Se trata de un explorador muy sencillito, tiene aspecto de terminal FTP y te permite realizar las funcionalidades básicas de un explorador: copiar ficheros, cambiarlos de nombre, crear buckets, crear carpetas…

También puedes modificar los permisos de una carpeta o archivo para hacerlos de acceso público y así poder tirar directamente de ellos en tu web -como hace twitter con las fotos de los perfiles- o ayudándote de un `intermediario´ como el nuevo Amazon CloudFront que te permite distribuir tu contenido con una menor latencia y a mayor velocidad algo especialmente útil si hablamos de contenido multimedia (estamos pendientes de probarlo, puedes leer más en error500).

Entre sus funcionalidades más avanzadas podemos destacar la posibilidad de transferir contenido desde un bucket de Amazon S3 a otro, o incluso desde una cuenta de Amazon S3 a otra.

Y poco más… la verdad es que todavía está un poquito verde, pero funciona perfectamente. Como podéis ver el interface es muy simple: a la izquierda mi equipo y a la derecha mi cuenta Amazon S3 donde tengo creados todos mis bucket (algunos no los utilizo pero he reservado el nombre para que no me lo quiten), los que tienen nombres raros son los bucket creados por Jungle Disk para las copias de seguridad que están encriptados.

 

Como ya comentamos el ecosistema de aplicaciones, proveedores y usuarios que se está creando entorno a los Amazon Web Services es treméndamente rico. Algunas empresas están aprovechando la oportunidad y pegándose a Amazon en esta aventura, consiguiendo un número importante de usuarios que no deja de crecer y andan como locos buscando aplicaciones.

Yo como usuario estoy totalmente enganchado ya a Dropbox que ha cambiado mi forma de trabajar y estoy seguro de que Jungle Disk -que recientemente fue adquirido por Rackspace- no tardará en sacar su propio navegador completando su funcionalidad de copias de seguridad.

En definitiva es The Cloud Computing Revolution que estamos viviendo en primera persona, el blog de Jungle Dave es un buen lugar para mantenernos al día sobre todos estos temas.

Amazon Web Services: adorablemente ariscos

Si la semana pasada fue la de DropBox, esta sin duda ha sido la de Amazon S3 y no puedo cerrarla sin comentar algo que me ha resultado curioso sobre este servicio…

Todo podría resumirse en la frase que encabeza la lista de funcionalidades de S3:

Amazon S3 is intentionally built with a minimal feature set

Y es que todos los Web Services de Amazon (AWS), sin excepción, son ariscos. Acostumbrados a aplicaciones 2.0 con nubecitas, sombreados y botones de colores… la presentación de los AWS es la cosa más intencionadamente aspera que te puedes echar a la cara… y digo intencionada porque estamos hablando de Amazon y esta gente sabe vender: sólo tenemos que comparar la pantalla de presentación de AWS con la Home de Amazon, repleta de imágenes y colores: 

No les habría costado nada poner un par de imágenes de sus datacenters o presumir un poco de su “$2 billion (…) infrastructure”… en lugar de eso han preferido apoyarse en la confianza que ofrece el peso de su nombre y dejar que otros puedan ganarse la vida aportando valor sobre sus servicios.

Y es que son cientas las empresas que están desarrollando software basado en AWS que en muchas ocasiones “sólo” se limitan a incorporar aquellos features que Amazon intencionadamente ha decidido no desarrollar: por ejemplo, en el hosting de S3, algo tan básico como un explorador para crear tus buckets y carpetas, modificar permisos y subir archivos de manera sencilla… no es ofrecido por Amazon, si bien puedes encontrar un montón en el ecosistema que se ha creado entorno a los AWS.

Los programadores y emprendedores se sienten animados a construir servicios basados en plataformas que no amenazan con competir con ellos en el futuro y la imagen externa de AWS transmite precisamente eso: no nos interesa el usuario final, eso lo dejamos en tus manos.

Algo que sin duda contrasta con esos ademanes de Apple ”el paradigma de la plataforma cerrada“, que por una parte anima a que se desarrolle para su plataforma y por otra, elimina sin pudor de su circuito aquellos desarrollos que compiten con los suyos.

Tus copias de seguridad on-line con Amazon S3

Para todos los que nos pasamos las horas pegadas al ordenador, las copias de seguridad es una asignatura pendiente que nunca terminamos de aprobar: conoce las ventajas de utilizar Amazon Web Services.

Son muy pocas las personas que conozco que disponen de un buen sistema de copias de seguridad que les permita estar seguros de que sus datos están blindados.

El secreto de las copias de seguridad es que tienen que hacerse de manera automatizada o no se harán, ya que cada vez estoy más convencido de que el ser humano no está diseñado para realizar de manera fiable tareas repetitivas, por lo tanto, mi recomendación es: configura un sistema robusto de copias de seguridad y automatízalo para que no tengas que revisarlo más de un par de veces al año.

Hoy en día creo que uno de los lugares más seguros para depositar tus copias de seguridad son los datacenters de Amazon S3, además a un coste muy razonable. Depositando ahí nuestros datos conseguimos varias cosas:

  • Las copias de seguridad no se encuentran en el mismo sitio que los originales.
  • Las copias de seguridad se mantienen seguras en unos sistemas que a su vez hacen copias de seguridad para mantener la integridad de sus datos y garantizar la disponibilidad.
  • El contenido de tus copias está encriptado y se transmite bajo SSL.

Con Amazon S3 puede elegir si tu contenido estará alojado en sus datacenter de EE.UU o de Europa, y pagas un precio realmente competitivo. A continuación puede echar un vistazo a nuestro reporte de actividad para ver los precios:

Con este sistema que te propongo no sólo dormirás tranquilo por las noches sino que además podrás tener una primera toma de contacto con los Amazon Web Services y sus increíbles posibilidades. ¿Todavía no he conseguido picar tu curiosidad? Pues sólo imagínate lo bien que vas quedar con tus clientes soltando una parrafada de este estilo:

 

… en nuestra empresa todos los días por la noche realizamos una copia de seguridad encriptada y automatizada que se envía bajo protocolo seguro a través de Internet a nuestro espacios contratados en datacenters repartidos por Europa y EE.UU”… (*)

 

¿Te animas? Pues te espero en la segunda parte de este artículo:

(*) Si por algún casual a tu cliente le da por preguntar “¿Exáctamente en qué parte de Europa están esos datacenters?” te recomiendo que cambies de tema de conversación o que sueltes algo así como “no dispongo de acceso a esa información por razones de seguridad”.

Tus copias de seguridad paso a paso: con Amazon S3 y Jungle Disk

Como automatizar tus copias de seguridad en los datacenter de Amazon S3 utilizando Jungle Disk, un estupendo programa que sólo cuesta 20$.

En la primera parte de este artículo os comentaba las ventajas de realizar tus copias de seguridad a través de Internet y depositarlas en los datacenter de Amazon S3. A continuación os explico cómo hacerlo paso a paso:

1 - Lo primero que tienes que hacer es perderle el miedo y darte de alta en Amazon S3… tranquilo, si luego no llegas a utilizar tu cuenta no te van a cobrar absolutamente nada.

2 – Después necesitarás un programa que te permita realizar copias de seguridad y almacenarlas en los servidores de Amazon S3. Hay bastantes, ya que el ecosistema que se ha creado entorno a los servicios de Amazon es asombroso.

Yo el que estoy utilizando es Jungle Disk, que por el momento me va a las mil maravillas y lo puedes probar de manera gratuita. Con este programa conseguiremos dos cosas: realizar nuestras copias de seguridad y además tener acceso a ellas como si fueran otra unidad de disco de nuestro sistema.

Esto es muy importante porque cuando te aventuras a volcar tus datos en datacenters a miles de kilómetros a través de Internet… para estar realmente tranquilo necesitas ver y entender cómo se están almacenando todos esos datos que estás enviando.

Como podéis ver, mis copias de seguridad en Amazón las he colocado en la unidad S y hay dos carpetas “backups” donde se encuentran mis archivos más actuales y “VersionArchive” que es donde van a parar todas las versiones anteriores de mis archivos una vez son sustituidas por copias más recientes.

Lo de las versiones es vital, porque imagínate que borras un registro de la base de datos y te das cuenta una semana después… lo más probable es que tu copia de seguridad ya haya replicado la base de datos sin ese dato, pero como guardas las versiones anteriores aun puedes recuperar una copia anterior al momento del borrado accidental.

3 – Con Jungle Disk por tanto puedes realizar tus copias en plan rudimentario: arrastrando tus carpetas manualmente al interior de tu unidad S3, en lugar de a un CD o un disco duro externo…

o puedes dedicarle un par de horas y dejarlo ya funcionando en modo automático con lo que podrás centrarte en otras cosas, yo te recomiendo esto último.

Por lo tanto lo primero que tienes que hacer es crear un bucket en Amazon donde almacenarás tus copias de seguridad. Un “bucket” es como un espacio reservado en sus servidores, por lo que lo primero que tendrás que decidir es si quieres crearte ese espacio en USA o en Europa: si estás en Europa se supone que accederás más rápido a los datos en los datacenter europeos, aunque es un pelín más caro.

Yo me he creado dos bucket: s3europa y s3usa. En USA hago la copia diaria de las bases de datos que inicio a las 5 de la mañana y en s3europa hago un volcado global semanal que inicio los viernes a las 8 de la tarde. Existe una buena razón para abrirte un bucket en EE.UU. como he hecho yo (a parte de ser guay) que explico más adelante.

4 – Ya tenemos nuestro bucket creado con Jungle Disk, ahora sólo tenemos que elegir qué queremos copiar (unidades locales y en red) y empezar el primer volcado, que será el que más tiempo dure ya que tenemos que subir a S3 absolutamente todos los archivos.

Como se puede ver en esta captura nosotros subimos 4,2 GB y eso nos llevó algo más de un día entero con ADSL a 3Mb (en los test de velocidad tenemos una bajada de 2.597 kbps y una subida de 267 kbps… y sí, este es el momento en el que entiendes lo que quiere decir la A de “asimétrica“).

Subir por tanto datos es 10 veces más lento que bajarlos, pero hay que tener en cuenta que en las siguientes copias de seguridad sólo se subirán aquellos ficheros que se hayan añadido o modificado, que normalmente serán una pequeña parte.

5 - Después del primer volcado, definiremos cada cuánto tiempo queremos refrescar nuestra copia de seguridad y también podremos definir algunas variables importantes: número de versiones que queremos almacenar del mismo documento, cada cuanto tiempo queremos eliminar las versiones anteriores…etc.

Como habéis visto el proceso básico es muy sencillo, yo he calculado que nos va a costar menos de 40$ al mes mantener blindados todos nuestros datos y eso con un uso intenso. Un particular podría realizar una copia semanal de sus documentos importantes y no le costaría ni 1$/mes.

6 – Por último, si llegado el momento necesitas acceder a una copia de tus datos puedes utilizar el asistente de Jungle Disk o navegar por tus unidades virtuales y recuperar tú mismo el fichero dañado. Esto dependerá del volumen: si necesitas hacer un Restore a lo bestia, mejor usa el asistente… pero si son sólo un par de ficheros, lo mejor es que los arrastres tu mismo al escritorio y les eches un vistazo antes de machacar tu copia local.

Seguridad

Nosotros en nuestras copias hemos activado la encriptación para que los archivos cuando salgan de nuestro entorno ya vayan encriptados. Esto es algo que se suma a propia seguridad de Amazon y su acceso restringido a través de la AWS Secret Key… que da para otro artículo.

 

Jungle Disk Plus

Con el servicio Jungle Disk Plus -que se contrata a parte- dispones de algunas ventajas adicionales. Para empezar: reportes por mail y en RSS, que te permiten supervisar que todas tus copias se están ejecutando correctamente y tal vez la más importante: block-level file updates, que actualmente sólo está disponible en los datacenter de Amazon en EE.UU (por eso me tuve que crear un bucket en USA).

Con block-level file updates cuando un archivo grande se modifica, sólo necesitas subir a Amazon la parte del archivo que ha cambiado en lugar del archivo entero. Esto te permite ahorrar en tu factura de Amazon y sobre todo acelerar el refresco de tus copias de seguridad: nosotros lo aplicamos a nuestro refresco diario de bases de datos.

Con Jungle Disk Plus también podrás acceder a tus archivos desde cualquier parte del mundo utilizando Web Access, que según lo que he visto no está muy desarrollado pero llegado el momento te puede sacar de una apuro.

Resumiendo…

… no lo pienses más: en un par de horas puedes dejar solucionado tu sistema de copias de seguridad a un precio muy razonable y aprender cosas nuevas.