<br><br><div class="gmail_quote">2010/1/26 Michael Allan <span dir="ltr"><<a href="mailto:mike@zelea.com">mike@zelea.com</a>></span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="im">
<br>
</div>Arguments sound like a good idea:<br>
<br>
 * No setup required (if no config file needed)<br>
<br>
 * You can call it repeatedly (e.g. from another script), with<br>
   different arguments for each call<br></blockquote><div><br>ok that is a good argument :) <br></div><div><br> </div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
There's an option on the Special:Export page for that:<br>
<a href="http://okidoke.referata.com/wiki/Special:Export" target="_blank">http://okidoke.referata.com/wiki/Special:Export</a><br></blockquote><div><br>I was thinking of that of course... <br></div><div><br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">

I was surprised that export isn't included here:<br>
<a href="http://search.cpan.org/%7Edcollins/MediaWiki-Bot-2.3.1/lib/MediaWiki/Bot.pm" target="_blank">http://search.cpan.org/~dcollins/MediaWiki-Bot-2.3.1/lib/MediaWiki/Bot.pm</a><br>
(I wish I looked like that guy.  That's how a programmer should<br>
 look. ;^)<br></blockquote><div><br>I also found this lib, and curiously bots in the wikimedia world are rather used for edition purpose than backup. We can understand this because most of wiki admins ca backup their wiki by a write right access way. <br>
</div><div> </div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Backup one page at a time, each in a separate file, like<br>
NAMESPACE/PAGE?  Then I guess you set the modtime of the file to the<br>
revision time.  (But we don't need this, yet.  I wouldn't code it.)<br></blockquote><div><br>It was my first attempt to backup pages by pages, but I thought that the restore process would be too difficult to manage if it has to be done manually, so I found logical and obvious to do a one file backup.<br>
With MediaWiki::API there is no way to just check the timestamp of a page, it makes you download all the page, it is no sense to download all the pages in order to check if we must backup each or not.<br>I have search the possibility to get the list of the last modified pages, put MediaWiki only provides the recent changes, there is things to explore this way, but as you said, lets keep this aside for later.    <br>
</div><div> </div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="im">
> lets go for the version 1.1 !<br>
<br>
</div>Command-line arguments like "--namespace=NAMESPACE" and<br>
"--revision=current|all", would make it nearly perfect. :^)<br>
Here's examples of option handling:<br>
<a href="http://zelea.com/project/votorola/b/build" target="_blank">http://zelea.com/project/votorola/b/build</a><br>
<a href="http://zelea.com/system/host/obsidian/usr/local/bin/desk-launch" target="_blank">http://zelea.com/system/host/obsidian/usr/local/bin/desk-launch</a><br></blockquote><div><br><br>I have already implemented the Getopt::Std with this kind of arguments I think that is sufficient isn't it ? <br>
by this way we can cumulate several namespace in the same backup.<br><br></div>./<a href="http://streetwikibot.pl">streetwikibot.pl</a> -u <a href="http://okidoke.referata.com">okidoke.referata.com</a> -n 10,102 -p 500 -t 20 -l 0<br>
<br><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
We're now thinking of using Referata for pollwikis, too.  So there<br>
should be lots of work for bots like this.<br></blockquote><div></div><div><br>ok<br><br>Philippe <br></div></div>