From 2c6f2a1f741763421cd0b3801d88ce27db7593e6 Mon Sep 17 00:00:00 2001 From: rramthun Date: Wed, 13 Sep 2006 20:03:15 +0000 Subject: [PATCH] First language fixes for new XHTML-layout git-svn-id: https://svn.berlios.de/svnroot/repos/yacy/trunk@2572 6c8d7289-2bf4-0310-a012-ef5d649a1542 --- htroot/IndexCreate_p.html | 2 +- locales/de.lng | 10 +++++----- 2 files changed, 6 insertions(+), 6 deletions(-) diff --git a/htroot/IndexCreate_p.html b/htroot/IndexCreate_p.html index 123bdb8ce..74f33b2b5 100644 --- a/htroot/IndexCreate_p.html +++ b/htroot/IndexCreate_p.html @@ -135,7 +135,7 @@ Exclude static Stop-Words - This can be useful to circumvent that extremely common words are added to the database, i.e. "the", "he", "she", "it"... To exclude all words given in the file yacy.stopwords from indexing, + This can be useful to circumvent that extremely common words are added to the database, i.e. "the", "he", "she", "it"... To exclude all words given in the file yacy.stopwords from indexing, check this box. diff --git a/locales/de.lng b/locales/de.lng index d0b4b0a2a..5b6339ee9 100644 --- a/locales/de.lng +++ b/locales/de.lng @@ -288,7 +288,7 @@ Cookies==Cookies YaCy: Help==YaCy: Hilfeseiten >Help==>Hilfe -This is a distributed web crawler and also a caching HTTP proxy. You are using the online-interface of the application. You can use this interface to configure your personal settings, proxy settings, access control and crawling properties. You can also use this interface to start crawls, send messages to other peers and monitor your index, cache status and crawling processes. Most important, you can use the search page to search either your own or the global index.==YaCy ist eine Suchmaschine, die ähnlich dem Prinzip des verteilten Rechnens (distributed computing wie z.B. SETI@home) funktioniert. Das ganze heisst hier eher "verteiltes Durchsuchen und Indexieren" des Internets. Ausserdem bringt sie einen HTTP Proxy Server mit. Sie benutzen gerade das online-Interface von YaCy. Sie können dieses Interface auch zum Konfigurieren Ihrer persönlichen Einstellungen, Proxy-Einstellungen, der Zugriffs-Kontrolle und den Crawl-Einstellungen benutzen. Sie können das Interface auch zum Starten von Crawls, Nachrichtenversand an andere YaCy-Nutzer und zur Überwachung Ihres Index, Cache-Status und des Crawl-Prozesses benutzen. Besonders wichtig ist, dass man die Suchseite benutzen kann, um entweder den eigenen oder den globalen Index zu durchsuchen. +This is a distributed web crawler and also a caching HTTP proxy. You are using the online-interface of the application. You can use this interface to configure your personal settings, proxy settings, access control and crawling properties. You can also use this interface to start crawls, send messages to other peers and monitor your index, cache status and crawling processes. Most important, you can use the search page to search either your own or the global index.==YaCy ist eine Suchmaschine, die ähnlich dem Prinzip des verteilten Rechnens (distributed computing wie z.B. SETI@home) funktioniert. Das ganze heisst hier eher "verteiltes Durchsuchen und Indexieren" des Internets. Ausserdem bringt sie einen HTTP Proxy Server mit. Sie benutzen gerade das Online-Interface von YaCy. Sie können dieses Interface auch zum Konfigurieren Ihrer persönlichen Einstellungen, Proxy-Einstellungen, der Zugriffs-Kontrolle und den Crawl-Einstellungen benutzen. Sie können das Interface auch zum Starten von Crawls, Nachrichtenversand an andere YaCy-Nutzer und zur Überwachung Ihres Index, Cache-Status und des Crawl-Prozesses benutzen. Besonders wichtig ist, dass man die Suchseite benutzen kann, um entweder den eigenen oder den globalen Index zu durchsuchen. For more detailed information, visit the==Für weitergehende Informationen besuchen Sie bitte die YaCy homepage==YaCy-Homepage Local and Global Search: Options and Functions==Lokale und globale Suche: Optionen und Funktionen @@ -300,7 +300,7 @@ The words are treated conjunctive, that means every must occur in the result, no If you do a global search \(see below\) you may get different results each time you do a search.==Wenn Sie eine globale Suche (siehe unten) durchführen, kann es sein, dass Sie bei wiederholten Suchanfragen jedesmal andere Ergebnisse erhalten. Maximum Number of Results==Maximale Anzahl an Ergebnissen #DAS ist eine Murksuebersetzung... bitte ggf. verbessern. ->Prefer mask\:<==>Vorzugsmaske:< +Prefer mask:==Vorzugsmaske: You can select the number of wanted maximum links. We do not yet support multiple result pages for virtually any possible link.==Sie können auswählen, wieviele Links Ihnen angezeigt werden sollen. Wir unterstützen im Moment keine mehrfachen Ergebnisseiten für jeden möglichen Link. Instead we encourage you to enhance the search result by submitting more search words.==Stattdessen möchten wir Sie dazu auffordern, Ihre Suchergebnisse durch das Eingeben von mehreren Suchwörtern, zu vergrößern. Result Order Options==Reihenfolge der Ergebnisse @@ -529,9 +529,9 @@ This message will appear in the 'Other Peer Crawl Start' table of other peers.== If checked, the crawler will contact other peers and use them as remote indexers for your crawl.==Wenn aktiviert, wird der Crawler mit anderen Peers Kontakt aufnehmen und diese als Remote Indexierer für Ihren Crawl benutzen. If you need your crawling results locally, you should switch this off.==Wenn Sie die Crawling Ergebnisse lokal benötigen, sollten Sie diese Funktion deaktivieren. Only senior and principal peers can initiate or receive remote crawls.==Nur Senior und Principal Peers können einen remote Crawl initiieren oder erhalten. -A YaCyNews message will be created to inform all peers about a global crawl, so they can omit starting a crawl with the same start point.==Eine Nachricht wird im YaCy News Bereich angezeigt, um alle Peers von diesem globalen Crawl zu informieren, damit sie es vermeiden können, einen Crawl vom selben Startpunkt zu starten. +A YaCyNews message will be created to inform all peers about a global crawl, so they can omit starting a crawl with the same start point.==Eine Nachricht wird im YaCy News Bereich angezeigt, um alle Peers von diesem globalen Crawl zu informieren, damit sie es vermeiden können, einen Crawl vom selben Startpunkt zu starten. Exclude static Stop-Words==Stop-Words ausschließen: -This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file yacy.stopwords from indexing,==Dies ist sinnvoll, um zu verhindern, dass extrem häufig vorkommende Wörter wie z.B. "der", "die", "das", "und", "er", "sie" etc in die Datenbank aufgenommen werden. Um alle Wörter von der Indexierung auszuschliessen, die in der Datei yacy.stopwords enthalten sind, +This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file yacy.stopwords from indexing,==Dies ist sinnvoll, um zu verhindern, dass extrem häufig vorkommende Wörter wie z.B. "der", "die", "das", "und", "er", "sie" etc in die Datenbank aufgenommen werden. Um alle Wörter von der Indexierung auszuschliessen, die in der Datei yacy.stopwords enthalten sind, check this box.==aktivieren Sie diese Box. Starting Point:==Startpunkt: From File:==Aus Datei: @@ -545,7 +545,7 @@ Crawling and indexing can be done by remote peers.==Crawlen und Indexieren kann Your peer can search and index for other peers and they can search for you.==Ihr Peer kann suchen und indexieren für andere Peers und diese können für Sie suchen. Accept remote crawling requests and perform crawl at maximum load==Akzeptiere Remote-Crawling Anfragen und crawle bis zur maximalen Auslastung. Accept remote crawling requests and perform crawl at maximum of==Akzeptiere Remote-Crawling Anfragen und crawle bis zu einem Maximum von -Pages Per Minute \(minimum is 1, low system load usually at PPM <= 30\)==Seiten pro Minute (Minimum ist 1, langsame Systeme sollten normalerweise unter 30 Seiten pro Minute laden) +Pages Per Minute \(minimum is 1, low system load usually at PPM <= 30\)==Seiten pro Minute (Minimum ist 1, langsame Systeme sollten normalerweise unter 30 Seiten pro Minute laden) Do not accept remote crawling requests \(please set this only if you cannot accept to crawl only one page per minute; see option above\)==Akzeptiere keine Remote-Crawling Anfragen (bitte aktivieren Sie dies nur, wenn Sie nicht eine Seite pro Minute crawlen können; siehe Option oben) "set"=="Speichern" Error:==Fehler: