]> git.eshelyaron.com Git - emacs.git/commitdiff
Document url-queue-retrieve
authorGlenn Morris <rgm@gnu.org>
Fri, 10 Feb 2012 03:23:47 +0000 (22:23 -0500)
committerGlenn Morris <rgm@gnu.org>
Fri, 10 Feb 2012 03:23:47 +0000 (22:23 -0500)
* doc/misc/url.texi (Retrieving URLs): Update url-retrieve arguments.
Mention url-queue-retrieve.

* lisp/url/url-queue.el (url-queue-retrieve): Doc fix.

* etc/NEWS: Edits.

doc/misc/ChangeLog
doc/misc/url.texi
etc/NEWS
lisp/url/ChangeLog
lisp/url/url-queue.el

index ff71a6857af4f75d722a1db504474c8c456d3253..d287b340542741dc22d696e4ce6d47d6990f4df2 100644 (file)
@@ -1,3 +1,8 @@
+2012-02-10  Glenn Morris  <rgm@gnu.org>
+
+       * url.texi (Retrieving URLs): Update url-retrieve arguments.
+       Mention url-queue-retrieve.
+
 2012-02-09  Glenn Morris  <rgm@gnu.org>
 
        * sem-user.texi (Semantic mode user commands): Typo fix.
index 6464fba53b4a6a1e563032af028076198eed7586..e60aebb665bbf408575a56cefdec7149861cb43d 100644 (file)
@@ -201,13 +201,25 @@ data.  @var{url} is either a string or a parsed URL structure.  Return
 info, or mailto URLs that need no further processing).
 @end defun
 
-@defun url-retrieve url callback &optional cbargs
+@defun url-retrieve url callback &optional cbargs silent no-cookies
 Retrieve @var{url} asynchronously and call @var{callback} with args
 @var{cbargs} when finished.  The callback is called when the object
 has been completely retrieved, with the current buffer containing the
 object and any MIME headers associated with it.  @var{url} is either a
 string or a parsed URL structure.  Returns the buffer @var{url} will
 load into, or @code{nil} if the process has already completed.
+If the optional argument @var{silent} is non-@code{nil}, suppress
+progress messages.  If the optional argument @var{no-cookies} is
+non-@code{nil}, do not store or send cookies.
+@end defun
+
+@vindex url-queue-parallel-processes
+@vindex url-queue-timeout
+@defun url-queue-retrieve url callback &optional cbargs silent no-cookies
+This acts like the @code{url-retrieve} function, but downloads in
+parallel.  The option @code{url-queue-parallel-processes} controls the
+number of concurrent processes, and the option @code{url-queue-timeout}
+sets a timeout in seconds.
 @end defun
 
 @node Supported URL Types
index df79f5580db572fd92e30dc987120ceccb0c7919..4be250dcf9a32b5f38bb7cf354549ca17250266e 100644 (file)
--- a/etc/NEWS
+++ b/etc/NEWS
@@ -858,8 +858,9 @@ sql-list-all and sql-list-table.
 *** The option `ange-ftp-binary-file-name-regexp' has changed its
 default value to "".
 
-** `url-queue-retrieve' downloads web pages asynchronously, but allow
-controlling the degree of parallelism.
++++
+** New function, url-queue-retrieve, fetches URLs asynchronously like
+url-retrieve does, but in parallel.
 
 ** VC and related modes
 
@@ -921,6 +922,7 @@ You can get a comparable behavior with:
 ---
 *** pc-mode.el is obsolete (CUA mode is much more comprehensive).
 
+[gnus.texi, message.texi need updating]
 *** pgg is obsolete (use EasyPG instead)
 
 ---
index 179148a089d626fe2c6c40aad29e7909ec81bdec..d7a22b721235164e4ee46217e0287c3017552772 100644 (file)
@@ -1,3 +1,7 @@
+2012-02-10  Glenn Morris  <rgm@gnu.org>
+
+       * url-queue.el (url-queue-retrieve): Doc fix.
+
 2012-02-08  Lars Ingebrigtsen  <larsi@gnus.org>
 
        * url-parse.el (url): Add the `use-cookies' slot to the URL struct
index c9c6c4fe69e583e099b42f08933e0c4f3c77faf6..62e5e2f84d45d8c62c06ee94251eb5c1bf9e72ad 100644 (file)
 ;;;###autoload
 (defun url-queue-retrieve (url callback &optional cbargs silent inhibit-cookies)
   "Retrieve URL asynchronously and call CALLBACK with CBARGS when finished.
-Like `url-retrieve' (which see for details of the arguments), but
-controls the level of parallelism via the
-`url-queue-parallel-processes' variable."
+This is like `url-retrieve' (which see for details of the arguments),
+but downloads in parallel.  The variable `url-queue-parallel-processes'
+sets the number of concurrent processes.  The variable `url-queue-timeout'
+sets a timeout."
   (setq url-queue
        (append url-queue
                (list (make-url-queue :url url
@@ -127,7 +128,7 @@ controls the level of parallelism via the
        (push job jobs)))
     (dolist (job jobs)
       (setq url-queue (delq job url-queue)))))
-  
+
 (defun url-queue-start-retrieve (job)
   (setf (url-queue-buffer job)
        (ignore-errors