s3: Use better retry logic.
[clinton/scripts.git] / s3
diff --git a/s3 b/s3
index 4f26efe..398ce32 100755 (executable)
--- a/s3
+++ b/s3
@@ -3,7 +3,10 @@
 # Licensed under the terms of the GNU GPL v2
 # Copyright 2007 Victor Lowther <victor.lowther@gmail.com>
 
+CURL=/home/mwolson_admin/bin/curl
 HMAC=$(dirname $0)/s3-hmac
+ATTEMPTS=7
+ATTEMPT_WAIT=10
 
 # print a message and bail
 die() {
@@ -46,7 +49,7 @@ check_hmac() {
 }
 
 check_deps() {
-  check_dep openssl date cat grep curl
+  check_dep openssl date cat grep
   check_hmac
   check_s3
 }
@@ -123,7 +126,7 @@ s3_curl() {
   # $3 = remote name
   # $4 = local name.
   # $5 = bandwidth limit.
-  local bucket remote date sig md5 arg inout headers
+  local bucket remote date sig md5 arg inout headers tries ret
   # header handling is kinda fugly, but it works.
   bucket="${2:+/${2}}/" # slashify the bucket
   remote="$(urlenc "${3}")" # if you don't, strange things may happen.
@@ -156,9 +159,21 @@ s3_curl() {
   headers[${#headers[@]}]="Authorization: AWS ${S3_ACCESS_KEY_ID}:${sig}"
   headers[${#headers[@]}]="Date: ${date}"
   [[ ${md5} ]] && headers[${#headers[@]}]="Content-MD5: ${md5}"
-    curl ${arg} "${inout}" ${stdopts} -K <(curl_headers "${headers[@]}") \
+  tries=0
+  while true; do
+    $CURL ${arg} "${inout}" ${stdopts} -K <(curl_headers "${headers[@]}") \
        "http://s3.amazonaws.com${bucket}${remote}"
-  return $?
+    ret=$?
+    test $ret -eq 0 && break; 
+    if test $tries -lt $ATTEMPTS; then
+        tries=$(expr $tries + 1)
+        echo "Retrying ..."
+        sleep $ATTEMPT_WAIT
+    else
+        break
+    fi
+  done
+  return $ret
 }
 
 s3_put() {