terminal_p.html: Put back the old ID which was really easy to find
IndexCreate.js: Because XHTML 1.0 Strict does not allow name tags for some elements rewrote most element access functions to use getElementById
Table_API_p.html and all other html pages: Some XHTMl 1.0 Strict fixes, changed checkAll javascript, marked the first row with checkboxes as unsortable where applicable
Table_API_p.java and all other java pages: URLencoded lines with possible ampersands & -> & for validation XHTML 1.0 Strict sourcecode
--> All Index Create pages should validate now. Hope I did not break anything else (too much :-)
git-svn-id: https://svn.berlios.de/svnroot/repos/yacy/trunk@7225 6c8d7289-2bf4-0310-a012-ef5d649a1542
If you read from an imported database, here are some hints to get around problems when importing dumps in phpMyAdmin:
<ul>
<li>before importing large database dumps, set the following Line in phpmyadmin/config.inc.php and place your dump file in /tmp (Otherwise it is not possible to upload files larger than 2MB):</li>
<pre>$cfg['UploadDir'] = '/tmp';</pre>
<li>deselect the partial import flag</li>
</ul>
</p>
</p>
<ul>
<li>before importing large database dumps, set the following Line in phpmyadmin/config.inc.php and place your dump file in /tmp (Otherwise it is not possible to upload files larger than 2MB):<br/>
<pre>$cfg['UploadDir'] = '/tmp';</pre></li>
<li>deselect the partial import flag</li>
</ul>
<p>
When an export is started, surrogate files are generated into DATA/SURROGATE/in which are automatically fetched by an indexer thread.
All indexed surrogate files are then moved to DATA/SURROGATE/out and can be re-cycled when an index is deleted.
@ -56,7 +56,7 @@
<dt><b>Posts per file</b><br/>in exported surrogates</dt>
You can define URLs as start points for Web page crawling and start crawling here. "Crawling" means that YaCy will download the given website, extract all links in it and then download the content behind these links. This is repeated as long as specified under "Crawling Depth".
<tdvalign="top"><inputtype="checkbox"name="crawlingDomMaxCheck"id="crawlingDomMaxCheck"#(crawlingDomMaxCheck)#::checked="checked"#(/crawlingDomMaxCheck)#/> not more than </td>
<dd><inputtype="checkbox"name="crawlingQ"id="crawlingQ"#(crawlingQChecked)#::checked="checked"#(/crawlingQChecked)#/> allow <ahref="http://en.wikipedia.org/wiki/Query_string">query-strings</a> (urls with a '?' in the path)
<dd>
<inputtype="checkbox"name="crawlingQ"id="crawlingQ"#(crawlingQChecked)#::checked="checked"#(/crawlingQChecked)#/> allow <ahref="http://en.wikipedia.org/wiki/Query_string">query-strings</a> (urls with a '?' in the path)
// The chrome browser is getting the wrong value if we try to get the value inside the script "var checkStatus=inputs.elements[0].checked;" - so now the value is a parameter
function checkAll (formToCheckAll, checkStatus) {
var inputs=document.getElementById(formToCheckAll);
// The chrome browser is getting the wrong value if we try to get the value inside the script "var checkStatus=inputs.elements[0].checked;" - so now the value is a parameter
function checkAll (formToCheckAll, checkStatus) {
var inputs=document.getElementById(formToCheckAll);
//var checkStatus=inputs.elements[0].checked;
for (var i =0; i <inputs.elements.length;i++){
inputs.elements[i].checked = checkStatus;
}
}
-->
</script>
@ -63,11 +63,11 @@
</form>
#(showscheduledfeeds)#::
<formname="scheduledfeeds"><fieldset>
<legend><labelfor="table">List of Scheduled RSS Feed Load Targets</label></legend>
// The chrome browser is getting the wrong value if we try to get the value inside the script "var checkStatus=inputs.elements[0].checked;" - so now the value is a parameter
function checkAll (formToCheckAll, checkStatus) {
var inputs=document.getElementById(formToCheckAll);
#(right)#<imgsrc="env/grafics/navdr.gif"alt="no next page"/>::<ahref="Table_API_p.html?startRecord=#[startRecord]#&maximumRecords=#[maximumRecords]#&inline=#(inline)#false::true#(/inline)#&filter=#[filter]#" target="_self"><imgsrc="env/grafics/navsr.gif"alt="next page"/></a>#(/right)#
Max Page Per Domain</strong>==Max. Seiten pro Domain</strong>
Accept==Akzeptiere
Fill Proxy Cache==Fülle Proxy Cache
@ -969,12 +969,12 @@ If you don't know what this means, please leave this field empty.==Wenn Sie nich
#Re-crawl known URLs:==Re-crawl bekannter URLs:
Use</label>:==Benutzen</label>:
#It depends on the age of the last crawl if this is done or not: if the last crawl is older than the given==Es hängt vom Alter des letzten Crawls ab, ob dies getan oder nicht getan wird: wenn der letzte Crawl älter als das angegebene
Auto-Dom-Filter:==Auto-Dom-Filter:
This option will automatically create a domain-filter which limits the crawl on domains the crawler==Diese Option erzeugt automatisch einen Domain-Filter der den Crawl auf die Domains beschränkt ,
will find on the given depth. You can use this option i.e. to crawl a page with bookmarks while==die auf der angegebenen Tiefe gefunden werden. Diese Option kann man beispielsweise benutzen, um eine Seite mit Bookmarks zu crawlen
restricting the crawl on only those domains that appear on the bookmark-page. The adequate depth==und dann den folgenden Crawl automatisch auf die Domains zu beschränken, die in der Bookmarkliste vorkamen. Die einzustellende Tiefe für
for this example would be 1.==dieses Beispiel wäre 1.
The default value 0 gives no restrictions.==Der Vorgabewert 0 bedeutet, dass nichts eingeschränkt wird.
#Auto-Dom-Filter:==Auto-Dom-Filter:
#This option will automatically create a domain-filter which limits the crawl on domains the crawler==Diese Option erzeugt automatisch einen Domain-Filter der den Crawl auf die Domains beschränkt ,
#will find on the given depth. You can use this option i.e. to crawl a page with bookmarks while==die auf der angegebenen Tiefe gefunden werden. Diese Option kann man beispielsweise benutzen, um eine Seite mit Bookmarks zu crawlen
#restricting the crawl on only those domains that appear on the bookmark-page. The adequate depth==und dann den folgenden Crawl automatisch auf die Domains zu beschränken, die in der Bookmarkliste vorkamen. Die einzustellende Tiefe für
#for this example would be 1.==dieses Beispiel wäre 1.
#The default value 0 gives no restrictions.==Der Vorgabewert 0 bedeutet, dass nichts eingeschränkt wird.
Maximum Pages per Domain:==Maximale Seiten pro Domain:
Page-Count==Seitenanzahl
You can limit the maximum number of pages that are fetched and indexed from a single domain with this option.==Sie können die maximale Anzahl an Seiten, die von einer einzelnen Domain gefunden und indexiert werden, mit dieser Option begrenzen.
This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file <tt>yacy.stopwords</tt> from indexing,==Dies ist sinnvoll, um zu verhindern, dass extrem häufig vorkommende Wörter wie z.B. "der", "die", "das", "und", "er", "sie" etc in die Datenbank aufgenommen werden. Um alle Wörter von der Indexierung auszuschließen, die in der Datei <tt>yacy.stopwords</tt> enthalten sind,
check this box.==aktivieren Sie diese Box.
"Start New Crawl"=="Neuen Crawl starten"
Depth</label>:==Tiefe</label>:
#-----------------------------
#File: CrawlStartIntranet_p.html
@ -1723,7 +1722,7 @@ Available after successful loading of rss feed in preview==Verfügbar nach dem e
>List of Scheduled RSS Feed Load Targets<==>Liste aller geplanten RSS Feed Ziele<
>Title<==>Titel<
#>URL/Referrer<==>URL/Referrer<
#>Recording<==>Recording<
>Recording<==>Eintrag<
>Last Load<==>Zuletzt Geladen<
>Next Load<==>Nächster Ladevorgang<
>Last Count<==>Letzter Zähler<
@ -1735,6 +1734,9 @@ Available after successful loading of rss feed in preview==Verfügbar nach dem e
"Remove Selected Feeds from Feed List"=="Entferne ausgewählte Feeds aus der Feed Liste"
"Remove All Feeds from Feed List"=="Entferne alle Feeds aus der Feed Liste"
"Add Selected Feeds to Scheduler"=="Füge ausgewählte Feeds zur geplanten Liste hinzu"
>new<==>Neu<
>enqueued<==>Geplant<
>indexed<==>Indexiert<
>RSS Feed of==>RSS Feed von
>Author<==>Autor<
>Description<==>Beschreibung<
@ -2780,6 +2782,11 @@ to change the configuration or to request crawl actions.==um Konfigurationen zu
These recorded actions can be used to repeat specific actions and to send them==Diese aufgezeichneten Aktionen können dazu verwendet werden, bestimmte Aktionen wiederholt auszuführen und um sie
to a scheduler for a periodic execution.==einem Scheduler für periodische Ausführung zu übergeben.
Scheduled actions are executed after the next execution date has arrived within a time frame of \#\[tfminutes\]\# minutes.==Geplante Aktionen werden innerhalb eines #[tfminutes]# Minuten Zeitfensters ausgeführt wenn der nächste Ausführungszeitpunkt erreicht wurde.