You can change the appearance of the YaCy interface with skins.==您可以在这里修改Yacy的外观界面.
You can change the appearance of the YaCy interface with skins.==您可以在这里修改YaCy的外观界面.
#You can change the appearance of YaCy with skins==Sie können hier das Erscheinungsbild von YaCy mit Skins ändern
#You can change the appearance of YaCy with skins==Sie können hier das Erscheinungsbild von YaCy mit Skins ändern
The selected skin and language also affects the appearance of the search page.==选择的皮肤和语言也会影响到搜索页面的外观.
The selected skin and language also affects the appearance of the search page.==选择的皮肤和语言也会影响到搜索页面的外观.
If you <a href="ConfigPortal.html">create a search portal with YaCy</a> then you can==如果您<a href="ConfigPortal.html">创建YaCy门户</a>,
If you <a href="ConfigPortal.html">create a search portal with YaCy</a> then you can==如果您<a href="ConfigPortal.html">创建YaCy门户</a>,
@ -383,9 +383,9 @@ Error saving the skin.==保存皮肤时出错.
#---------------------------
#---------------------------
Access Configuration==访问设置
Access Configuration==访问设置
Basic Configuration==基本设置
Basic Configuration==基本设置
Your YaCy Peer needs some basic information to operate properly==您的Yacy Peer需要一些基本信息才能工作
Your YaCy Peer needs some basic information to operate properly==您的YaCy Peer需要一些基本信息才能工作
Select a language for the interface==选择界面语言
Select a language for the interface==选择界面语言
Use Case: what do you want to do with YaCy:==用途: 您用Yacy做什么:
Use Case: what do you want to do with YaCy:==用途: 您用YaCy做什么:
Community-based web search==基于社区的网络搜索
Community-based web search==基于社区的网络搜索
Join and support the global network \'freeworld\', search the web with an uncensored user-owned search network==加入并支持全球网络 'freeworld', 自由地搜索.
Join and support the global network \'freeworld\', search the web with an uncensored user-owned search network==加入并支持全球网络 'freeworld', 自由地搜索.
Search portal for your own web pages==属于您自己的搜索引擎
Search portal for your own web pages==属于您自己的搜索引擎
@ -834,7 +834,7 @@ Sending Client==发送主机
#---------------------------
#---------------------------
>Crawl Profile Editor<==>Crawl文件编辑<
>Crawl Profile Editor<==>Crawl文件编辑<
>Crawler Steering<==>Crawler引导<
>Crawler Steering<==>Crawler引导<
>Crawl Scheduler<==>Crawl安排<
>Crawl Scheduler<==>定期Crawl<
>Scheduled Crawls can be modified in this table<==>请在下表中修改已安排的crawl<
>Scheduled Crawls can be modified in this table<==>请在下表中修改已安排的crawl<
Crawl profiles hold information about a crawl process that is currently ongoing.==Crawl文件里保存有正在运行的crawl进程信息.
Crawl profiles hold information about a crawl process that is currently ongoing.==Crawl文件里保存有正在运行的crawl进程信息.
@ -947,60 +947,60 @@ Showing latest \#\[count\]\# lines from a stack of \#\[all\]\# entries.==显示
#File: CrawlStartExpert_p.html
#File: CrawlStartExpert_p.html
#---------------------------
#---------------------------
Expert Crawl Start==Experten Crawl Start
Expert Crawl Start==Crawl高级设置
Start Crawling Job:==Starte Crawling Aufgabe:
Start Crawling Job:==开始Crawl任务:
You can define URLs as start points for Web page crawling and start crawling here. \"Crawling\" means that YaCy will download the given website, extract all links in it and then download the content behind these links. This is repeated as long as specified under \"Crawling Depth\".==Sie können hier URLs angeben, die gecrawlt werden sollen und dann das Crawling starten. "Crawling" bedeutet, dass YaCy die angegebene Webseite runterlädt, alle Links extrahiert und dann den Inhalt hinter diesen Links runterlädt. Dies wird solange wiederholt wie unter "Crawling Tiefe" angegeben.
You can define URLs as start points for Web page crawling and start crawling here. \"Crawling\" means that YaCy will download the given website, extract all links in it and then download the content behind these links. This is repeated as long as specified under \"Crawling Depth\".==您可以将指定URL作为网页crawling的起始点. "Crawling"意即YaCy会下载指定的网站, 并解析出网站中链接的所有内容, 其深度由"Crawling深度"指定.
Attribute<==Attribut<
Attribute<==属性<
Value<==Wert<
Value<==值<
Description<==Beschreibung<
Description<==描述<
>Starting Point:==>Startpunkt:
>Starting Point:==>起始点:
>From URL==>Von URL
>From URL==>来自URL
From Sitemap==Von Sitemap
From Sitemap==来自站点地图
From File==Von Datei
From File==来自文件
Existing start URLs are always re-crawled.==Existierende Start-URLs werden immer wieder gecrawled.
Existing start URLs are always re-crawled.==已存在的起始链接将会被重新crawl.
Other already visited URLs are sorted out as \"double\", if they are not allowed using the re-crawl option.==Andere bereits besuchte Seiten werden als 'doppelt' aussortiert, wenn diese nicht ausdrücklich per Re-crawl Option zugelassen wurden.
Other already visited URLs are sorted out as \"double\", if they are not allowed using the re-crawl option.==对于已经访问过的链接, 如果它们不允许被重新crawl,则被标记为'重复'.
Create Bookmark==Lesezeichen erstellen
Create Bookmark==创建书签
\(works with "Starting Point: From URL" only\)==(funktioniert nur mit "Startpunkt von URL")
\(works with "Starting Point: From URL" only\)==(仅从"起始链接"开始)
Title<==Titel<
Title<==标题<
Folder<==Ordner<
Folder<==目录<
This option lets you create a bookmark from your crawl start URL.==Diese Option gibt Ihnen die Möglichkeit ein Lesezeichen aus Ihrer Crawl Start URL zu erstellen.
This option lets you create a bookmark from your crawl start URL.==此选项会将起始链接设为书签.
Crawling Depth</label>==Crawling-Tiefe</label>
Crawling Depth</label>==Crawling深度</label>
This defines how often the Crawler will follow links \(of links..\) embedded in websites.==Dies definiert, wie oft der Crawler eingebetteten Links (von Links ...) in Webseiten folgen wird.
This defines how often the Crawler will follow links \(of links..\) embedded in websites.==此选项为crawler跟踪网站嵌入链接的深度.
0 means that only the page you enter under \"Starting Point\" will be added==0 bedeutet, dass nur die Seite unter "Startpunkt"
0 means that only the page you enter under \"Starting Point\" will be added==设置为 0 代表仅将"起始点"
to the index. 2-4 is good for normal indexing. Values over 8 are not useful, since a depth-8 crawl will==dem Index zugefügt wird. 2-4 ist gut für normales Indexieren. Werte über 8 sind nicht nützlich, denn eine Suche mit Suchtiefe 8 würde
to the index. 2-4 is good for normal indexing. Values over 8 are not useful, since a depth-8 crawl will==添加到索引. 建议设置为2-4. 由于设置为8会索引将近25,000,000,000个页面, 所以不建议设置大于8的值,
index approximately 25.600.000.000 pages, maybe this is the whole WWW.==ungefähr 25.600.000.000 Seiten indexieren, vielleicht sogar das ganze WWW.
index approximately 25.600.000.000 pages, maybe this is the whole WWW.==这可能是整个互联网的内容.
Scheduled re-crawl<==Geplanter Re-Crawl<
Scheduled re-crawl<==已安排的重新Crawl<
>no doubles<==>Keine Dubletten<
>no doubles<==>无 重复<
run this crawl once and never load any page that is already known, only the start-url may be loaded again.==Führe diesen Crawl einmalig aus und lade niemals eine schon bekannte Seite nach. Nur die URL unter Startpunkt darf noch einmal geladen werden.
run this crawl once and never load any page that is already known, only the start-url may be loaded again.==仅运行一次crawl, 并且不载入重复网页, 可能会重载起始链接.
>re-load<==>Nachladen<
>re-load<==>重载<
run this crawl once, but treat urls that are known since==führe diesen Crawl einmalig aus aber behandle URLs die bereits seit
run this crawl once, but treat urls that are known since==运行此crawl, 但是将链接视为从
>years<==>Jahre<
>years<==>年<
>months<==>Monate<
>months<==>月<
>days<==>Tage<
>days<==>日<
>hours<==>Stunden<
>hours<==>时<
not as double and load them again. No scheduled re-crawl.==bekannt sind nicht als Dubletten und lade sie erneut.
not as double and load them again. No scheduled re-crawl.==不重复并重新载入. 无安排的crawl任务.
>scheduled<==>Geplant<
>scheduled<==>定期<
after starting this crawl, repeat the crawl every==Nach dem Start dieses Crawls, führe ihn jede
after starting this crawl, repeat the crawl every==运行此crawl后, 每隔
> automatically.==> automatisch aus.
> automatically.==> 运行.
A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==Ein Web Crawl führt eine Dubletten Prüfung anhand einer internen Datenbank gegen alle im Internet gefunden Links durch. Wenn dieselbe URL wieder gefunden wird,
A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==网页crawl参照自身数据库, 对所有找到的链接进行重复性检查. 如果链接重复,
then the url is treated as double when you check the \'no doubles\' option. A url may be loaded again when it has reached a specific age,==wird die URL als Dublette behandelt wenn die 'Keine Doubletten' Option ausgewählt wurde. Eine URL kann noch einmal geladen werden wenn sie ein bestimmtes Alter erreicht hat.
then the url is treated as double when you check the \'no doubles\' option. A url may be loaded again when it has reached a specific age,==并且'无重复'选项打开, 则被以重复链接对待. 如果链接存在时间超过一定时间,
to use that check the \'re-load\' option. When you want that this web crawl is repeated automatically, then check the \'scheduled\' option.==Dafür kann die 'Nachladen' Option verwendet werden. Wenn der Web Crawl automatisch wiederholt werden soll, kann die 'Geplant' Option ausgewählt werden.
to use that check the \'re-load\' option. When you want that this web crawl is repeated automatically, then check the \'scheduled\' option.==并且'重载'选项打开, 则此链接会被重新读取. 当您想这些crawl自动运行时, 请选中'定期'选项.
In this case the crawl is repeated after the given time and no url from the previous crawl is omitted as double.==In diesem Fall wird der Crawl erneut nach der eingestellten Zeit ausgeführt und keine URL aus einem vorhergegangenem Crawl wird als Dublette ausgelassen.
In this case the crawl is repeated after the given time and no url from the previous crawl is omitted as double.==此种情况下, crawl会每隔一定时间自动运行并且不会重复寻找前一次crawl中的链接.
Must-Match Filter==Muss-entsprechen Filter
Must-Match Filter==必须与过滤器匹配
Use filter==Filter nutzen
Use filter==使用过滤器
Restrict to start domain==Auf Startdomain beschränken
Restrict to start domain==限制为起始域
Restrict to sub-path==Auf Sub-Pfad beschränken
Restrict to sub-path==限制为子路经
#The filter is an emacs-like regular expression that must match with the URLs which are used to be crawled;==Dieser Filter ist ein emacs-ähnlicher regulärer Ausdruck, der mit den zu crawlenden URLs übereinstimmen muss;
#The filter is an emacs-like regular expression that must match with the URLs which are used to be crawled;==Dieser Filter ist ein emacs-ähnlicher regulärer Ausdruck, der mit den zu crawlenden URLs übereinstimmen muss;
The filter is a <a href=\"http://java.sun.com/j2se/1.5.0/docs/api/java/util/regex/Pattern.html\">regular expression</a>==Dieser Filter ist ein <a href="http://java.sun.com/j2se/1.5.0/docs/api/java/util/regex/Pattern.html">Regulärer Ausdruck</a>
The filter is a <a href=\"http://java.sun.com/j2se/1.5.0/docs/api/java/util/regex/Pattern.html\">regular expression</a>==过滤是一组<a href="http://java.sun.com/j2se/1.5.0/docs/api/java/util/regex/Pattern.html">正则表达式</a>
that must match with the URLs which are used to be crawled; default is \'catch all\'.==der auf die zum Crawlen verwendeten URLs zutreffen muss. Die Standard Einstellung ist 'alle zulassen'.
that must match with the URLs which are used to be crawled; default is \'catch all\'.==, 它们表示了要抓取的链接规则; 默认是'抓取所有'.
Example: to allow only urls that contain the word \'science\', set the filter to \'.*science.*\'.==Beispiel: Um nur URLs zuzulassen, die das Wort 'Wissenschaft' beeinhalten, setzen Sie den Filter auf '.*Wissenschaft.*'.
Example: to allow only urls that contain the word \'science\', set the filter to \'.*science.*\'.==比如: 如果仅抓取包含'科学'的链接, 可将过滤器设置为 '.*.*'.
You can also use an automatic domain-restriction to fully crawl a single domain.==Sie können aber auch eine automatische Domain-Beschränkung benutzen, um eine einzelne Domain komplett zu crawlen.
You can also use an automatic domain-restriction to fully crawl a single domain.==您也可以使用域限制来抓取整个域.
This filter must not match to allow that the page is accepted for crawling.==Dieser Filter muss nicht passen, um zu erlauben, dass die Seite zum crawlen akzeptiert wird.
This filter must not match to allow that the page is accepted for crawling.==这个过滤器表示了所有不被抓取的网页规则.
The empty string is a never-match filter which should do well for most cases.==Ein leeres Feld ist ein niemals-passend Filter, der in den meisten Fällen gute Dienste leisten sollte.
The empty string is a never-match filter which should do well for most cases.==对于大多数情况可以留空.
If you don't know what this means, please leave this field empty.==Wenn Sie nicht wissen, was dies bedeutet, lassen Sie das Feld einfach leer.
If you don't know what this means, please leave this field empty.==如果您不知道这些设置的意义, 请将此留空.
#Re-crawl known URLs:==Re-crawl bekannter URLs:
#Re-crawl known URLs:==Re-crawl bekannter URLs:
Use</label>:==Benutzen</label>:
Use</label>:==使用</label>:
#It depends on the age of the last crawl if this is done or not: if the last crawl is older than the given==Es hängt vom Alter des letzten Crawls ab, ob dies getan oder nicht getan wird: wenn der letzte Crawl älter als das angegebene
#It depends on the age of the last crawl if this is done or not: if the last crawl is older than the given==Es hängt vom Alter des letzten Crawls ab, ob dies getan oder nicht getan wird: wenn der letzte Crawl älter als das angegebene
#Auto-Dom-Filter:==Auto-Dom-Filter:
#Auto-Dom-Filter:==Auto-Dom-Filter:
#This option will automatically create a domain-filter which limits the crawl on domains the crawler==Diese Option erzeugt automatisch einen Domain-Filter der den Crawl auf die Domains beschränkt ,
#This option will automatically create a domain-filter which limits the crawl on domains the crawler==Diese Option erzeugt automatisch einen Domain-Filter der den Crawl auf die Domains beschränkt ,
#restricting the crawl on only those domains that appear on the bookmark-page. The adequate depth==und dann den folgenden Crawl automatisch auf die Domains zu beschränken, die in der Bookmarkliste vorkamen. Die einzustellende Tiefe für
#restricting the crawl on only those domains that appear on the bookmark-page. The adequate depth==und dann den folgenden Crawl automatisch auf die Domains zu beschränken, die in der Bookmarkliste vorkamen. Die einzustellende Tiefe für
#for this example would be 1.==dieses Beispiel wäre 1.
#for this example would be 1.==dieses Beispiel wäre 1.
#The default value 0 gives no restrictions.==Der Vorgabewert 0 bedeutet, dass nichts eingeschränkt wird.
#The default value 0 gives no restrictions.==Der Vorgabewert 0 bedeutet, dass nichts eingeschränkt wird.
Maximum Pages per Domain:==Maximale Seiten pro Domain:
Maximum Pages per Domain:==每个域允许的最多页面:
Page-Count==Seitenanzahl
Page-Count==页面计数
You can limit the maximum number of pages that are fetched and indexed from a single domain with this option.==Sie können die maximale Anzahl an Seiten, die von einer einzelnen Domain gefunden und indexiert werden, mit dieser Option begrenzen.
You can limit the maximum number of pages that are fetched and indexed from a single domain with this option.==您可以将从单个域中抓取和索引的页面数目限制为此值.
You can combine this limitation with the 'Auto-Dom-Filter', so that the limit is applied to all the domains within==Sie können diese Option auch mit dem 'Auto-Dom-Filter' kombinieren, so dass das Limit für alle Domains mit der
You can combine this limitation with the 'Auto-Dom-Filter', so that the limit is applied to all the domains within==您可以将此设置与'Auto-Dom-Filter'结合起来, 以限制给定深度中所有域.
the given depth. Domains outside the given depth are then sorted-out anyway.==angegebenen Tiefe gilt. Domains ausserhalb der angegebenen Tiefe werden einfach aussortiert.
the given depth. Domains outside the given depth are then sorted-out anyway.==超出深度范围的域会被自动忽略.
Accept URLs with==Akzeptiere URLs mit
Accept URLs with==接受链接
dynamic URLs==dynamische URLs
dynamic URLs==动态URL
A questionmark is usually a hint for a dynamic page. URLs pointing to dynamic content should usually not be crawled. However, there are sometimes web pages with static content that==Ein Fragezeichen ist normalerweise ein Hinweis auf eine dynamische Seite. URLs mit dynamischem Inhalt sollten normalerweise nicht gecrawlt werden. Wie auch immer, manchmal gibt es Seiten mit festem Inhalt, die
A questionmark is usually a hint for a dynamic page. URLs pointing to dynamic content should usually not be crawled. However, there are sometimes web pages with static content that==动态页面通常用问号标记. 通常不会抓取指向动态页面的链接. 然而, 也有些含有静态内容的页面用问号标记.
is accessed with URLs containing question marks. If you are unsure, do not check this to avoid crawl loops.==nur von URLs zu erreichen sind, die ein Fragezeichen enthalten. Wenn Sie unsicher sind, aktivieren Sie diese Funktion nicht, um Crawl Schleifen zu vermeiden.
is accessed with URLs containing question marks. If you are unsure, do not check this to avoid crawl loops.==如果您不确定, 不要选中此项, 以防抓取时陷入死循环.
Store to Web Cache==Speichern im Web-Cache
Store to Web Cache==存储到网页缓存
This option is used by default for proxy prefetch, but is not needed for explicit crawling.==Diese Option ist standardmäßig beim Proxy aktiviert, wird aber zum reinen Crawlen nicht gebraucht.
This option is used by default for proxy prefetch, but is not needed for explicit crawling.==这个选项默认打开, 并用于预抓取, 但对于精确抓取此选项无效.
Policy for usage of Web Cache==Regeln für die Nutzung des Web Caches
Policy for usage of Web Cache==网页缓存使用策略
The caching policy states when to use the cache during crawling:==Die Caching Regeln legen fest wann der Cache während des Crawlen verwendet wird:
The caching policy states when to use the cache during crawling:==缓存策略即表示抓取时何时使用缓存:
never use the cache, all content from fresh internet source;==Den Cache nie verwenden, allen Inhalt frisch von der Online Quelle
never use the cache, all content from fresh internet source;==从不使用缓存内容, 全部从因特网资源即时抓取;
use the cache if the cache exists and is fresh using the proxy-fresh rules;==Verwende den Cache, wenn ein Treffer im Cache existiert und dieser aktuell ist.
use the cache if the cache exists and is fresh using the proxy-fresh rules;==如果缓存中存在并且是最新则使用代理刷新规则;
use the cache if the cache exist. Do no check freshness. Otherwise use online source;==Verwende den Cache, wenn ein Treffer existiert ohne die Aktualität zu prüfen. Andernfalls verwende die Quelle online;
use the cache if the cache exist. Do no check freshness. Otherwise use online source;==如果缓存存在则使用缓存. 不检查是否最新. 否则使用最新源;
never go online, use all content from cache. If no cache exist, treat content as unavailable==Gehe niemals online, verwende nur den Cache Inhalt. Wenn kein Cache existiert, behandle den Inhalt als nicht verfügbar
never go online, use all content from cache. If no cache exist, treat content as unavailable==从不检查线上内容, 全部使用缓存内容. 如果缓存存在, 将其视为无效
Do Local Indexing:==Lokales Indexieren:
Do Local Indexing:==本地索引:
index text==Indexiere Text
index text==索引文本
index media==Indexiere Medien
index media==索引媒体
This enables indexing of the wepages the crawler will download. This should be switched on by default, unless you want to crawl only to fill the==Dies aktiviert die Indexierung von Webseiten, die der Crawler runterlädt. Dies sollte standardmässig aktiviert sein, ausser Sie wollen den
This enables indexing of the wepages the crawler will download. This should be switched on by default, unless you want to crawl only to fill the==此选项开启时, crawler会下载网页索引. 默认打开, 除非您仅要填充
Document Cache without indexing.==Dokumenten Cache ohne Indexierung füllen.
Document Cache without indexing.==文件缓存而不进行索引.
Do Remote Indexing==Nutze Remote Indexierung
Do Remote Indexing==远程索引
Describe your intention to start this global crawl \(optional\)==Beschreiben Sie warum Sie diesen globalen Crawl starten (optional)
Describe your intention to start this global crawl \(optional\)==在这填入您要进行全球crawl的目的(可选)
This message will appear in the 'Other Peer Crawl Start' table of other peers.==Diese Nachricht wird bei anderen Peers in der 'Anderer Peer Crawl Start' Tabelle angezeigt.
This message will appear in the 'Other Peer Crawl Start' table of other peers.==此消息会显示在其他peer的'其他peer crawl起始'列表中.
If checked, the crawler will contact other peers and use them as remote indexers for your crawl.==Wenn aktiviert, wird der Crawler mit anderen Peers Kontakt aufnehmen und diese als Remote Indexierer für Ihren Crawl benutzen.
If checked, the crawler will contact other peers and use them as remote indexers for your crawl.==如果选中, crawler会联系其他peer, 并将其作为此次crawl的远程索引器.
If you need your crawling results locally, you should switch this off.==Wenn Sie die Crawling Ergebnisse lokal benötigen, sollten Sie diese Funktion deaktivieren.
If you need your crawling results locally, you should switch this off.==如果您仅想crawl本地内容, 请关闭此设置.
Only senior and principal peers can initiate or receive remote crawls.==Nur Senior und Principal Peers können einen remote Crawl initiieren oder erhalten.
Only senior and principal peers can initiate or receive remote crawls.==仅高级peer和主peer能初始化或者接收远程crawl.
A YaCyNews message will be created to inform all peers about a global crawl==Eine Nachricht wird im YaCy News Bereich angezeigt, um alle Peers von diesem globalen Crawl zu informieren
A YaCyNews message will be created to inform all peers about a global crawl==YaCy新闻消息中会通知其他peer这个全球crawl,
so they can omit starting a crawl with the same start point.==damit sie es vermeiden können, einen Crawl vom selben Startpunkt zu starten.
so they can omit starting a crawl with the same start point.==然后他们才能以相同起始点进行crawl.
This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file <tt>yacy.stopwords</tt> from indexing,==Dies ist sinnvoll, um zu verhindern, dass extrem häufig vorkommende Wörter wie z.B. "der", "die", "das", "und", "er", "sie" etc in die Datenbank aufgenommen werden. Um alle Wörter von der Indexierung auszuschließen, die in der Datei <tt>yacy.stopwords</tt> enthalten sind,
This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file <tt>yacy.stopwords</tt> from indexing,==此项用于规避极常用字, 比如 "个", "他", "她", "它"等. 当要在索引时排除所有在<tt>yacy.stopwords</tt>文件中的字词时,
check this box.==aktivieren Sie diese Box.
check this box.==请选中此项.
"Start New Crawl"=="Neuen Crawl starten"
"Start New Crawl"=="开始新crawl"
#-----------------------------
#-----------------------------
#File: CrawlStartIntranet_p.html
#File: CrawlStartIntranet_p.html
#---------------------------
#---------------------------
#Intranet Crawl Start==Intranet Crawl Start
#Intranet Crawl Start==Intranet Crawl Start
When an index domain is configured to contain intranet links,==Wenn eine Index Domain konfiguriert wurde die Intranet Links enthält,
When an index domain is configured to contain intranet links,==当索引域中包含局域网链接时,
the intranet may be scanned for available servers.==kann dieses Intranet auf verfügbare Server gescannt werden.
the intranet may be scanned for available servers.==可用服务器会扫描它们.
Please select below the servers in your intranet that you want to fetch into the search index.==Bitte in der folgenden Server Liste aus Ihrem Intranet auswählen, welche Sie in den Suchindex aufnehmen wollen.
Please select below the servers in your intranet that you want to fetch into the search index.==以下服务器在您的局域网中, 请选择您想添加到搜索索引中的主机.
This network definition does not allow intranet links.==Diese Netzwerk Konfiguration erlaubt keine Intranet Links.
This network definition does not allow intranet links.==当前网络定义不允许局域网链接.
A list of intranet servers is only available if you confiugure YaCy to index intranet targets.==Eine Liste mit Servern aus dem Intranet ist nur verfügbar, wenn Sie YaCy auch konfiguriert haben Intranetseiten zu indexieren.
A list of intranet servers is only available if you confiugure YaCy to index intranet targets.==仅当您将YaCy配置为索引局域网目标, 以下条目才有效.
To do so, open the <a href=\"ConfigBasic.html\">Basic Configuration</a> servlet and select the \'Intranet Indexing\' use case.==Um diese Einstellung vorzunehmen, bitte im Servlet <a href="ConfigBasic.html">Basis Konfiguration</a> den Anwendungsfall 'Intranet Indexierung' auswählen.
To do so, open the <a href=\"ConfigBasic.html\">Basic Configuration</a> servlet and select the \'Intranet Indexing\' use case.==将YaCy配置为索引局域网目标, 打开<a href="ConfigBasic.html">基本设置</a>页面, 选中'索引局域网'.
Available Intranet Server==Verfügbare Intranet Server
Available Intranet Server==可用局域网服务器
#>IP<==>IP<
#>IP<==>IP<
#>URL<==>URL<
#>URL<==>URL<
>Process<==>Status<
>Process<==>状态<
>not in index<==>Nicht im Index<
>not in index<==>不在索引中<
>indexed<==>Indexiert<
>indexed<==>已加入索引<
"Add Selected Servers to Crawler"=="Füge ausgewählte Server zum Crawler hinzu"
"Add Selected Servers to Crawler"=="添加选中服务器到crawler"
#-----------------------------
#-----------------------------
#File: CrawlStartScanner_p.html
#File: CrawlStartScanner_p.html
#---------------------------
#---------------------------
Network Scanner==Netzwerk Scanner
Network Scanner==网络扫描器
YaCy can scan a network segment for available http, ftp and smb server.==YaCy kann ein Netzwerksegment auf verfügbare HTTP, FTP und SMB Server hin absuchen.
YaCy can scan a network segment for available http, ftp and smb server.==YaCy可扫描http, ftp 和smb服务器.
You must first select a IP range and then, after this range is scanned,==Sie müssen zuerst einen IP Bereich festlegen und dann, nachdem dieser Bereich gescannt wurde,
You must first select a IP range and then, after this range is scanned,==须先指定IP范围, 再进行扫描,
it is possible to select servers that had been found for a full-site crawl.==ist es möglich einen gefunden Server für eine volle Seiten Suche crawlen zu lassen.
it is possible to select servers that had been found for a full-site crawl.==才有可能选择主机并将其作为全站crawl的服务器.
No servers had been detected in the given IP range \#\[iprange\]\#.
No servers had been detected in the given IP range \#\[iprange\]\#.
Please enter a different IP range for another scan.==Bitte geben Sie einen anderen IP Bereich ein für einen weiteren Scan.
Please enter a different IP range for another scan.==未检测到可用服务器, 请重新指定IP范围.
Please wait...==Bitte warten...
Please wait...==请稍候...
>Scan the network<==>Das Netzwerk Scannen<
>Scan the network<==>扫描网络<
Scan Range==Scan Bereich
Scan Range==扫描范围
Scan sub-range with given host==Scanne Unterbereich von angegebenen Host aus
Scan sub-range with given host==扫描给定主机的子域
Full Intranet Scan:==Voller Intranet Scan:
Full Intranet Scan:==局域网完全扫描:
Do not use intranet scan results, you are not in an intranet environment!==Verwenden Sie nicht die Intranet Scan Resultate, da sie sich nicht in einer Intranet Umgebung befinden!
Do not use intranet scan results, you are not in an intranet environment!==由于您当前不处于局域网环境, 请不要使用局域网扫描结果!
>Scan Cache<==>Scan Cache<
>Scan Cache<==>扫描缓存<
accumulate scan results with access type \"granted\" into scan cache \(do not delete old scan result\)==Sammle Scan Ergebnisse mit dem Zugriffstyp "granted" im Scan Cache (Lösche keine alten Scan Ergebnisse)
accumulate scan results with access type \"granted\" into scan cache \(do not delete old scan result\)==使用"已授权"的缓存以加速扫描(不要删除上次扫描结果)
>Service Type<==>Service Typ<
>Service Type<==>服务类型<
#>ftp==>FTP
#>ftp==>FTP
#>smb==>SMB
#>smb==>SMB
#>http==>HTTP
#>http==>HTTP
#>https==>HTTPS
#>https==>HTTPS
>Scheduler<==>Scan Planung<
>Scheduler<==>定期扫描<
run only a scan==Nur einmalig Scannen
run only a scan==运行一次扫描
scan and add all sites with granted access automatically. This disables the scan cache accumulation.==Scannen und alle Webseiten mit erlaubtem Zugriff automatisch hinzufügen. Diese Einstellungen deaktiviert die Scan Cache Ansammlung.
scan and add all sites with granted access automatically. This disables the scan cache accumulation.==扫描并自动添加已授权站点. 此选项会关闭缓存扫描加速.
Look every==Überprüfe alle
Look every==每隔
>minutes<==>Minuten<
>minutes<==>分<
>hours<==>Stunden<
>hours<==>时<
>days<==>Tage<
>days<==>天<
again and add new sites automatically to indexer.==wieder und füge neue Seiten automatisch zum Indexer hinzu.
again and add new sites automatically to indexer.==再次检视, 并自动添加新站点到索引器中.
Sites that do not appear during a scheduled scan period will be excluded from search results.==Seiten die nicht im Laufe eines geplanten Scans auftauchen werden von den Suchergebnissen ausgeschlossen.
Sites that do not appear during a scheduled scan period will be excluded from search results.==周期扫描中未上线的站点会被自动排除.
"Scan"=="Scannen"
"Scan"=="扫描"
The following servers had been detected:==Die folgenden Server wurden entdeckt:
The following servers had been detected:==已检测到以下服务器:
Available server within the given IP range==Verfügbare Server innerhalb des angegebenen IP Bereichs
Available server within the given IP range==指定IP范围内的可用服务器
>Protocol<==>Protokoll<
>Protocol<==>协议<
#>IP<==>IP<
#>IP<==>IP<
#>URL<==>URL<
#>URL<==>URL<
>Access<==>Zugriff<
>Access<==>权限<
>Process<==>Prozess<
>Process<==>状态<
>unknown<==>unbekannt<
>unknown<==>未知<
>empty<==>leer<
>empty<==>空<
>granted<==>erlaubt<
>granted<==>已授权<
>denied<==>verweigert<
>denied<==>拒绝<
>not in index<==>nicht im Index<
>not in index<==>未在索引中<
>indexed<==>indexiert<
>indexed<==>已被索引<
"Add Selected Servers to Crawler"=="Füge ausgewählte Server zum Crawlen hinzu"
"Add Selected Servers to Crawler"=="添加选中服务器到crawler"
#-----------------------------
#-----------------------------
#File: CrawlStartSite_p.html
#File: CrawlStartSite_p.html
#---------------------------
#---------------------------
>Site Crawling<==>Seiten Crawlen<
>Site Crawling<==>crawl站点<
Site Crawler:==Seiten Crawler:
Site Crawler:==站点crawler:
Download all web pages from a given domain or base URL.==Downloaden aller Webseiten von einer gegebenen Domain oder Basis URL.
Download all web pages from a given domain or base URL.==下载给定域或者URL里的所有网页.
>Site Crawl Start<==>Seiten Crawl Start<
>Site Crawl Start<==>起始crawl站点<
>Site<==>Seite<
>Site<==>站点<
Link-List of URL==Link Liste der URL
Link-List of URL==URL链接表
>Scheduler<==>Zeitplanung<
>Scheduler<==>定时器<
run this crawl once==führe diesen Crawl nur einmalig aus
run this crawl once==运行此crawl
scheduled, look every==geplant, überprüfe alle
scheduled, look every==每
>minutes<==>Minuten<
>minutes<==>分钟<
>hours<==>Stunden<
>hours<==>小时<
>days<==>Tage<
>days<==>天<
for new documents automatically.==automatisch auf neue Dokument.
for new documents automatically.==, 以自动查找新文件.
>Path<==>Pfad<
>Path<==>路径<
load all files in domain==Lade alle Dateien in der Domäne
load all files in domain==载入域中所有文件
load only files in a sub-path of given url==Lade nur Dateien in einem Unterpfad der angegebenen URL
load only files in a sub-path of given url==仅载入给定URL子路径中文件
>Limitation<==>Einschränkungen<
>Limitation<==>限制<
not more than <==nicht mehr als <
not more than <==不超过<
>documents<==>Dokumente<
>documents<==>文件<
>Dynamic URLs<==>Dynamische URLs<
>Dynamic URLs<==>动态URL<
allow <==erlaube <
allow <==允许<
urls with a \'\?\' in the path==URLs mit einem '?' im Pfad
urls with a \'\?\' in the path==路径中含有'?'
#>Start<==>Start<
#>Start<==>Start<
"Start New Crawl"=="Starte neuen Crawl"
"Start New Crawl"=="开始新crawl"
Hints<==Hinweise<
Hints<==提示<
>Crawl Speed Limitation<==>Einschränkung der Crawl Geschwindigkeit<
>Crawl Speed Limitation<==>crawl速度限制<
No more that two pages are loaded from the same host in one second \(not more that 120 document per minute\) to limit the load on the target server.==Es werden nicht mehr als 2 Seiten pro Sekunde vom selben Host geladen (nicht mehr als 120 Dokumente per Minute), um die Last auf den Zielserver zu minimieren.
No more that two pages are loaded from the same host in one second \(not more that 120 document per minute\) to limit the load on the target server.==每秒最多从同一主机中载入两个页面(每分钟不超过120个文件)以限制目标主机负载.
>Target Balancer<==>Ziel Balancer<
>Target Balancer<==>目标平衡器<
A second crawl for a different host increases the throughput to a maximum of 240 documents per minute since the crawler balances the load over all hosts.==Ein zweiter Crawl für einen anderen Host erhöht den Durchsatz auf ein Maximum von 240 Dokumenten pro Minute weil der der Crawler Balancer die Last über alle Hosts verteilt.
A second crawl for a different host increases the throughput to a maximum of 240 documents per minute since the crawler balances the load over all hosts.==对于不同主机的二次crawl, 会上升到每分钟最多240个文件, 因为crawler会自动平衡所有主机的负载.
A \'shallow crawl\' which is not limited to a single host \(or site\)==Ein 'oberflächlicher Crawl' der nicht auf einen einzelnen Host (oder eine Seite) limitiert ist
A \'shallow crawl\' which is not limited to a single host \(or site\)==当目标主机很多时, 用于多个主机(或站点)的'浅crawl'方式,
can extend the pages per minute \(ppm\) rate to unlimited documents per minute when the number of target hosts is high.==kann die Anzahl der Seiten pro Minute (ppm) auf unendlich viele Dokumente pro Minute erweitern wenn die Anzahl der Ziel Hosts hoch ist.
can extend the pages per minute \(ppm\) rate to unlimited documents per minute when the number of target hosts is high.==会增加每秒页面数(ppm).
This can be done using the <a href=\"CrawlStartExpert_p.html\">Expert Crawl Start</a> servlet.==Das kann erreicht werden durch Verwendung des <a href="CrawlStartExpert_p.html">Crawl Start (Expert)</a> Servlets.
This can be done using the <a href=\"CrawlStartExpert_p.html\">Expert Crawl Start</a> servlet.==对应设置<a href="CrawlStartExpert_p.html">专家模式起始crawla>选项.
>Scheduler Steering<==>Geplante Steuerung<
>Scheduler Steering<==>定时器引导<
The scheduler on crawls can be changed or removed using the <a href=\"Table_API_p.html\">API Steering</a>.==Die geplante Ausführung von Crawls kann geändert oder entfernt werden mit der <a href="Table_API_p.html">API Aktionen Steuerung</a>.
The scheduler on crawls can be changed or removed using the <a href=\"Table_API_p.html\">API Steering</a>.==可以使用<a href="Table_API_p.html">API引导</a>改变或删除crawl定时器.
#-----------------------------
#-----------------------------
#File: Help.html
#File: Help.html
#---------------------------
#---------------------------
YaCy: Help==YaCy: Hilfe
YaCy: Help==YaCy: 帮助
Tutorial==Anleitung
Tutorial==新手教程
You are using the administration interface of your own search engine==Sie benutzen gerade das Administrationsinterface ihrer eigenen Suchmaschine
You are using the administration interface of your own search engine==您正在搜索引擎的管理界面
You can create your own search index with YaCy==Sie können mit YaCy Ihren eigenen Suchindex erstellen
You can create your own search index with YaCy==您可以用YaCy创建您自己的搜索索引
To learn how to do that, watch one of the demonstration videos below==Bitte sehen Sie als Anleitung eine Demonstration (2. Video unten in deutscher Sprache)
To learn how to do that, watch one of the demonstration videos below==观看以下demo视频以了解更多
Disable search function for users without authorization==Suchfunktion für Benutzer ohne Autorisierung sperren
Disable search function for users without authorization==禁止未授权用户搜索
Enable web search to everyone==Suchfunktion für alle Nutzer erlauben
Enable web search to everyone==允许所有人搜索
the peer-to-peer network==Peer-to-Peer-Netzwerk
the peer-to-peer network==P2P网络
only the local index==Nur lokaler Index
only the local index==仅本地索引
Query Operators==Such-Operatoren
Query Operators==查询操作
restrictions==Restriktionen
restrictions==限制
only urls with the <phrase> in the url==Nur URLs, welche <phrase> enthalten
only urls with the <phrase> in the url==仅包含<phrase>的URL
only urls with extension==Nur URLs mit der Dateinamenserweiterung
only urls with extension==仅带扩展名的URL
only urls from host==Nur URLs vom Server
only urls from host==仅来自主机的URL
only pages with as-author-anotated==Nur Seiten mit dem angegebenen Autor
only pages with as-author-anotated==仅作者授权页面
only pages from top-level-domains==Nur Seiten aus der Top-Level-Domain
only pages from top-level-domains==仅来自顶级域名的页面
only resources from http or https servers==Nur Ressources auf HTTP- oder HTTPS-Servern
only resources from http or https servers==仅来自http/https服务器的资源
only resources from ftp servers==Nur Ressourcen auf FTP-Servern
only resources from ftp servers==仅来自ftp服务器的资源
they are rare==eher selten
they are rare==它们很少
crawl them yourself==crawlen Sie sie selbst
crawl them yourself==您自己crawl它们
only resources from smb servers==Nur Ressourcen von SMB-Servern
only resources from smb servers==仅来自smb服务器的资源
Intranet Indexing</a> must be selected==Intranet-Indexierung</a> muss ausgewählt sein
Intranet Indexing</a> must be selected==局域网索引</a>必须被选中
only files from a local file system==Nur Dateien aus dem lokalen Dateisystem
only files from a local file system==仅来自本机文件系统的文件
ranking modifier==Ranking-Modifizierung
ranking modifier==排名修改
sort by date==Sortierung nach Datum
sort by date==按日期排序
latest first==Neuste zuerst
latest first==最新者居首
multiple words shall appear near==Mehrere Wörter sollen nah zusammen stehen
multiple words shall appear near==多个字会出现在
doublequotes==Anführungszeichen
doublequotes==双引号
prefer given language==Angegebene Sprache bevorzugen
prefer given language==首选语言
an ISO639 2-letter code==2-Buchstaben-Ländercode nach ISO639
an ISO639 2-letter code==ISO639标准的双字母代码
heuristics==Heuristiken
heuristics==启发式
add search results from scroogle==Benutze zusätzliche Ergebnisse von Scroogle
add search results from scroogle==添加来自scroogle的搜索结果
add search results from blekko==Benutze zusätzliche Ergebnisse von Blekko
add search results from blekko==添加来自blekko的搜索结果
Search Navigation==Such-Navigation
Search Navigation==搜索导航
keyboard shotcuts==Tastatur-Kürzel
keyboard shotcuts==快捷键
tab or page-up==Tab oder Bild hoch
tab or page-up==Tab或者Page Up
next result page==Nächste Ergebnisseite
next result page==下一页
page-down==Bild nach unten
page-down==Page Down
previous result page==Vorherige Ergebnisseite
previous result page==上一页
automatic result retrieval==Automatische Ergebnis-Abfrage
automatic result retrieval==自动结果检索
browser integration==Browserintegration
browser integration==浏览集成
after searching, click-open on the default search engine in the upper right search field of your browser and select 'Add "YaCy Search.."'==Nach der Suche clicken Sie auf das Suchfeld Ihres Browsers und wählen Sie '"YaCy" hinzufügen'
after searching, click-open on the default search engine in the upper right search field of your browser and select 'Add "YaCy Search.."'==搜索后, 点击浏览器右上方区域中的默认搜索引擎, 并选择'添加"YaCy"'
search as rss feed==Suche als RSS-Feed
search as rss feed==作为RSS-Feed搜索
click on the red icon in the upper right after a search. this works good in combination with the '/date' ranking modifier. See an==Klicken Sie nach der Suche auf das rote Icon in der rechten oberen Ecke. Dies funktioniert gut mit dem '/date' Ranking-Modifizierer. Hier ein
click on the red icon in the upper right after a search. this works good in combination with the '/date' ranking modifier. See an==搜索后点击右上方的红色图标. 配合'/date'排名修改, 能取得较好效果.
>example==>Beispiel
>example==>例
json search results==JSON-Suchergebnisse
json search results==JSON搜索结果
for ajax developers: get the search rss feed and replace the '.rss' extension in the search result url with '.json'==Für AJAX-Entwickler: Rufen Sie den RSS-Feed auf und ersetzen Sie '.rss' durch '.json'
for ajax developers: get the search rss feed and replace the '.rss' extension in the search result url with '.json'==对AJAX开发者: 获取搜索结果页的RSS-Feed, 并用'.json'替换'.rss'搜索结果链接中的扩展名
#-----------------------------
#-----------------------------
#File: IndexCleaner_p.html
#File: IndexCleaner_p.html
#---------------------------
#---------------------------
Index Cleaner==Index Aufräumer
Index Cleaner==索引清理
>URL-DB-Cleaner==>URL-DB-Aufräumer
>URL-DB-Cleaner==>URL-DB-清理
#ThreadAlive:
#ThreadAlive:
#ThreadToString:
#ThreadToString:
Total URLs searched:==Insgesamt durchsuchte URLs:
Total URLs searched:==搜索到的全部URL:
Blacklisted URLs found:==URLS auf Blacklist gefunden:
Blacklisted URLs found:==搜索到的黑名单URL:
Percentage blacklisted:==Prozent auf Blacklist:
Percentage blacklisted:==黑名单占百分比:
last searched URL:==zuletzt durchsuchte URL:
last searched URL:==最近搜索到的URL:
last blacklisted URL found:==zuletzt gefundene URL auf Blacklist:
last blacklisted URL found:==最近搜索到的黑名单URL:
>RWI-DB-Cleaner==>RWI-DB-Aufräumer
>RWI-DB-Cleaner==>RWI-DB-清理
RWIs at Start:==RWIs beim Start:
RWIs at Start:==启动时RWIs:
RWIs now:==RWIs jetzt:
RWIs now:==当前RWIs:
wordHash in Progress:==Wort-Hash in Benutzung:
wordHash in Progress:==处理中的Hash值:
last wordHash with deleted URLs:==letzter Wort-Hash mit gelöschten URLs:
last wordHash with deleted URLs:==已删除URL的Hash值:
Number of deleted URLs in on this Hash:==Anzahl an gelöschten URLs in diesem Hash:
Number of deleted URLs in on this Hash:==此Hash中已删除的URL数:
URL-DB-Cleaner - Clean up the database by deletion of blacklisted urls:==URL-DB-Aufräumer - Räumen Sie Ihre Datenbank auf, indem Sie URLs, die auf Ihrer Blacklist stehen, löschen:
URL-DB-Cleaner - Clean up the database by deletion of blacklisted urls:==URL-DB-清理 - 清理数据库, 会删除黑名单URl:
Start/Resume==Start/Fortsetzen
Start/Resume==开始/继续
Stop==Stopp
Stop==停止
Pause==Anhalten
Pause==暂停
RWI-DB-Cleaner - Clean up the database by deletion of words with reference to blacklisted urls:==RWI-DB-Aufräumer - Räumen Sie Ihre Datenbank auf, indem Sie Wörter, die mit Ihrer Blacklist verbunden sind, löschen:
RWI-DB-Cleaner - Clean up the database by deletion of words with reference to blacklisted urls:==RWI-DB-清理 - 清理数据库, 会删除与黑名单URL相关的信息: