Fix previous URL doc change
authorGlenn Morris <rgm@gnu.org>
Fri, 10 Feb 2012 17:22:09 +0000 (09:22 -0800)
committerGlenn Morris <rgm@gnu.org>
Fri, 10 Feb 2012 17:22:09 +0000 (09:22 -0800)
* lisp/url/url-queue.el (url-queue-retrieve): Fic previous doc fix.

* doc/misc/url.texi (Retrieving URLs): Update url-retrieve arguments.
Mention url-queue-retrieve.

* etc/NEWS: Related edit.

doc/misc/url.texi
etc/NEWS
lisp/url/ChangeLog
lisp/url/url-queue.el

index e60aebb..7714302 100644 (file)
@@ -216,10 +216,10 @@ non-@code{nil}, do not store or send cookies.
 @vindex url-queue-parallel-processes
 @vindex url-queue-timeout
 @defun url-queue-retrieve url callback &optional cbargs silent no-cookies
-This acts like the @code{url-retrieve} function, but downloads in
-parallel.  The option @code{url-queue-parallel-processes} controls the
-number of concurrent processes, and the option @code{url-queue-timeout}
-sets a timeout in seconds.
+This acts like the @code{url-retrieve} function, but with limits on
+the degree of parallelism.  The option @code{url-queue-parallel-processes}
+controls the number of concurrent processes, and the option
+@code{url-queue-timeout} sets a timeout in seconds.
 @end defun
 
 @node Supported URL Types
index 3306c5c..9929f32 100644 (file)
--- a/etc/NEWS
+++ b/etc/NEWS
@@ -858,8 +858,9 @@ default value to "".
 remote machines that support SELinux.
 
 +++
-** New function, url-queue-retrieve, fetches URLs asynchronously like
-url-retrieve does, but in parallel.
+** New function, `url-queue-retrieve', which behaves like url-retrieve,
+but with limits (`url-queue-parallel-processes', `url-queue-timeout') on
+the degree of parallelism.
 
 ** VC and related modes
 
index 8f0cbcb..14aaa4b 100644 (file)
@@ -1,3 +1,7 @@
+2012-02-10  Glenn Morris  <rgm@gnu.org>
+
+       * url-queue.el (url-queue-retrieve): Fic previous doc fix.
+
 2012-02-10  Andreas Schwab  <schwab@linux-m68k.org>
 
        * url-http.el (url-http-clean-headers): Return the number of
index 62e5e2f..9dfee48 100644 (file)
@@ -57,9 +57,9 @@
 (defun url-queue-retrieve (url callback &optional cbargs silent inhibit-cookies)
   "Retrieve URL asynchronously and call CALLBACK with CBARGS when finished.
 This is like `url-retrieve' (which see for details of the arguments),
-but downloads in parallel.  The variable `url-queue-parallel-processes'
-sets the number of concurrent processes.  The variable `url-queue-timeout'
-sets a timeout."
+but with limits on the degree of parallelism.  The variable
+`url-queue-parallel-processes' sets the number of concurrent processes.
+The variable `url-queue-timeout' sets a timeout."
   (setq url-queue
        (append url-queue
                (list (make-url-queue :url url