From e7c7f338f65e689bba4876daeb58f69ecef8a2b2 Mon Sep 17 00:00:00 2001 From: rramthun Date: Fri, 22 Dec 2006 17:22:48 +0000 Subject: [PATCH] Some minor fixes for 0.5 git-svn-id: https://svn.berlios.de/svnroot/repos/yacy/trunk@3124 6c8d7289-2bf4-0310-a012-ef5d649a1542 --- locales/de.lng | 82 +++++++++++++++++++++++++++----------------------- 1 file changed, 44 insertions(+), 38 deletions(-) diff --git a/locales/de.lng b/locales/de.lng index 57e051016..df263d895 100644 --- a/locales/de.lng +++ b/locales/de.lng @@ -443,8 +443,8 @@ Word-Hash:==Wort-Hash: Index Creation==Index Erzeugung Start Crawling Job:==Starte Crawling Aufgabe: You can define URLs as start points for Web page crawling and start crawling here. \"Crawling\" means that YaCy will download the given website, extract all links in it and then download the content behind these links. This is repeated as long as specified under \"Crawling Depth\".==Sie können hier URLs angeben, die gecrawlt werden sollen und dann das Crawling starten. "Crawling" bedeutet, dass YaCy die angegebene Webseite runterlädt, alle Links extrahiert und dann den Inhalt hinter diesen Links runterlädt. Dies wird solange wiederholt wie unter "Crawling Tiefe" angegeben. -#Attribut==Attribut -Value==Wert +#Attribut==Attribut +Value==Wert Description==Beschreibung Crawling Depth:==Crawling-Tiefe: This defines how often the Crawler will follow links embedded in websites.==Dies definiert, wie oft der Crawler eingebetteten Links in Webseiten folgen wird. @@ -548,7 +548,7 @@ Filter==Maske MaxAge==Max. Alter Auto Filter Depth==Auto Filter Tiefe Auto Filter Content==Auto Inhalts Filter -Max Page Per Domain==MAx. Seiten pro Domain +Max Page Per Domain==Max. Seiten pro Domain Accept \'?\' URLs==URLs mit "?" akzeptieren Fill Proxy Cache==Fülle Proxy Cache Local Indexing==Lokales Indexieren @@ -1234,7 +1234,7 @@ This is the account that restricts access to the proxy function.==Dies sind die You probably don't want to share the proxy to the internet, so you should set the IP-Number Access Domain to a pattern that corresponds to you local intranet.==Sie wollen den Proxy vermutlich nicht im Internet zur Verfügung stellen, deshalb sollten Sie den IP-Adressraum so einstellen, dass er auf Ihr lokales Intranet zutrifft. The default setting should be right in most cases.==Die Standardwerte sollten in den meisten Fällen richtig sein. If you want, you can also set a proxy account so that every proxy user must authenticate first, but this is rather unusual.==Wenn Sie wollen können Sie auch Proxyaccounts erstellen, sodass sich jeder Proxynutzer zuerst anmelden muss, aber das ist eher unüblich. -IP-Number filter:==IP-Adressen Filter: +IP-Number filter==IP-Adressen Filter Use Via==Gibt an, ob der Proxy den Via-HTTP-Header +http header according to RFC 2616 Sect 14.45.==gemäß RFC 2616 Sect 14.45 senden soll. +Submit==Speichern #----------------------------- #File: Settings_Proxy.inc @@ -1272,17 +1277,17 @@ Port Forwarding==Port Weiterleitung You can use a remote server running a ssh demon to forward your server/proxy port.==Sie können einen Remote Server mit einem ssh demon nutzen, um Ihrem Server/Proxy Port weiterzuleiten. This is useful if you want to tunnel throug a NAT/router.==Dies ist nützlich, wenn Sie durch einen NAT/Router tunneln wollen. Alternatively, you can simply set a virtual server port on your NAT/Server to enable connections from outside.==Alternativ können Sie einfach einen virtuellen Server in Ihrem NAT/Router einstellen, um Verbindungen von Außerhalb zu ermöglichen. -Enable port forwarding:==Aktiviere Port Weiterleitung: +Enable port forwarding:==Aktiviere Port Weiterleitung: Enabling disabling port forwarding via secure channel.==Aktivieren/Deaktivieren von Port Weiterleitung über sicheren Kanal. -Forwarding via proxy:==Weiterleitung über Proxy: +Forwarding via proxy:==Weiterleitung über Proxy: Function not available at the moment.==Funktion im Moment nicht verfügbar. You need to install libx to use this feature==Sie müssen die libx installieren, um diese Funktionen benutzen zu können -Forwarding port:==Weiterleitender Port +Forwarding port:==Weiterleitender Port The port on the remote server that should be forwarded via the secure channel to the local host.==Der Port des Remote Servers der mittels sicherem Kanal auf den lokalen Host weitergeleitet werden soll. -Forwarding host:==Weiterleitender Host -Forwarding host port:==Weiterleitender Host Port -Forwarding host user:==Weiterleitender Host Nutzer -Forwarding host password:==Weiterleitender Host Passwort +Forwarding host:==Weiterleitender Host +Forwarding host port:==Weiterleitender Host Port +Forwarding host user:==Weiterleitender Host Nutzer +Forwarding host password:==Weiterleitender Host Passwort Changes will take effect immediately.==Änderungen sind sofort wirksam. #----------------------------- @@ -1349,7 +1354,7 @@ The password==Das Passwort #--------------------------- Store into filesystem:==Ablegen im Dateisystem: You must configure this if you want to store the seed-list file onto the file system.==Sie müssen diese Einstellungen vornehmen, wenn Sie die Seed-Liste im Dateisystem ablegen wollen. -File Location:==Speicherort: +File Location:==Speicherort: Here you can specify the path within the filesystem where the seed-list file should be stored.==Hier können Sie den Pfad im Dateisystem festlegen, in dem die Seed-Liste abgelegt werden soll. #----------------------------- @@ -1381,7 +1386,7 @@ Generic Crawler Settings==Allgemeine Crawler Einstellungen Connection timeout in ms==Verbindungs-Timeout in ms means unlimited==schaltet die Begrenzung ab Crawler Settings==Crawler Einstellungen -Maximum Filesize==Maximale Dateigröße +Maximum Filesize==Maximale Dateigröße Maximum allowed file size in bytes that should be downloaded==Maximale Größe der herunterzuladenden Datei in Byte Larger files will be skipped==Größere Dateien werden übersprungen Please note that if the crawler uses content compression, this limit is used to check the compressed content size==Beachten Sie, dass beim Herunterladen der Dateien mittels "Content-Compression" die komprimierte Dateigröße maßgeblich ist @@ -1704,34 +1709,35 @@ Comment==Kommentar #--------------------------- Next update in==Nächste Aktualisierung in seconds==Sekunden -Queue==Puffer -Size==Größe -#Max==Max -Indexing==Indexieren +Queue==Puffer +Size==Größe +#Max==Max +Indexing==Indexieren Loader==Lader Local Crawler==Lokaler Crawler unlimited==uneingeschränkt -#Remote Crawler==Remote Crawler +#Remote Crawler==Remote Crawler Database==Datenbank Entries==Einträge -Pages \(URLs\)==Seiten (URLs) -RWIs \(Words\)==RWIs (Wörter) +Pages \(URLs\)==Seiten (URLs) +RWIs \(Words\)==RWIs (Wörter) Indicator==Indikator -Level==Stufe PPM \(Pages Per Minute\)==PPM (Seiten pro Minute) +Level==Stufe +PPM \(Pages Per Minute\)==PPM (Seiten pro Minute) RWI RAM \(Word Cache\)==RWI RAM (Wörter Zwischenspeicher) -Error with profile management. Please stop YaCy, delete the file DATA/PLASMADB/crawlProfiles0.db and restart.==Fehler im Profil Management. Bitte stoppen Sie YaCy, löschen Sie die Datei DATA/PLASMADB/crawlProfiles0.db und starten Sie YaCy neu. -Error:==Fehler: -Application not yet initialized. Sorry. Please wait some seconds and repeat the request.==Anwendung noch nicht initialisiert. Bitte warten Sie noch ein paar Sekunden und versuchen es dann erneut. +Error with profile management. Please stop YaCy, delete the file DATA/PLASMADB/crawlProfiles0.db and restart.==Fehler im Profil Management. Bitte stoppen Sie YaCy, löschen Sie die Datei DATA/PLASMADB/crawlProfiles0.db und starten Sie YaCy neu. +Error:==Fehler: +Application not yet initialized. Sorry. Please wait some seconds and repeat the request.==Anwendung noch nicht initialisiert. Bitte warten Sie noch ein paar Sekunden und versuchen es dann erneut. ERROR: Crawl filter==FEHLER: Crawl Maske does not match with crawl root==stimmt nicht überein mit dem Crawlstart -Please try again with different filter.==Bitte probieren Sie es erneut mit einer anderen Maske. +Please try again with different filter.==Bitte probieren Sie es erneut mit einer anderen Maske. Crawling of==Crawling von -failed. Reason:==schlug fehl. Grund: -Error with URL input==Fehler mit URL Eingabe -Error with file input==Fehler mit Datei Eingabe -started.==gestartet. -Please wait some seconds, it may take some seconds until the first result appears there.==Bitte warten Sie ein wenig, es dauert einige Sekunden, bis die ersten Ergebnisse hier zu sehen sind. -If you crawl any un-wanted pages, you can delete them here.==Wenn Ihr Crawl Seiten indexiert, die Sie nicht indexiert haben wollen, können Sie diese hier l&oul;schen. +failed. Reason:==schlug fehl. Grund: +Error with URL input==Fehler mit URL Eingabe +Error with file input==Fehler mit Datei Eingabe +started.==gestartet. +Please wait some seconds, it may take some seconds until the first result appears there.==Bitte warten Sie ein wenig, es dauert einige Sekunden, bis die ersten Ergebnisse hier zu sehen sind. +If you crawl any un-wanted pages, you can delete them here.==Wenn Ihr Crawl Seiten indexiert, die Sie nicht indexiert haben wollen, können Sie diese hier l&oul;schen. Crawl Profiles:==Crawl Profile: Crawl Thread==Crawl Art #Start URL==Start URL @@ -1740,22 +1746,22 @@ Filter==Maske MaxAge==Max. Alter Auto Filter Depth==Auto Filter Tiefe Auto Filter Content==Auto Inhalts Filter -Max Page Per Domain==MAx. Seiten pro Domain +Max Page Per Domain==Max. Seiten pro Domain Accept \'?\' URLs==URLs mit "?" akzeptieren Fill Proxy Cache==Fülle Proxy Cache -Local Text Indexing==Lokal Test Indexieren -Local Media Indexing==Lokal Media Indexieren +Local Text Indexing==Lokal Test Indexieren +Local Media Indexing==Lokal Media Indexieren Remote Indexing==Remote Indexieren \#no::yes\#==#nein::ja# Crawl Queue:==Crawler Puffer: -Queue==Puffer -#Profile==Profile +Queue==Puffer +#Profile==Profile Initiator==Auftraggeber Depth==Tiefe Modified Date==zuletzt bearbeitet-Datum Anchor Name==Linkbezeichnung -#URL==URL - +#URL==URL +Delete==Löschen #----------------------------- #File: Wiki.html