till IndexCleaner_p.html

pull/1/head
lofyer 13 years ago
parent 77a81ee894
commit d48abc1f90

@ -340,7 +340,7 @@ Save User==保存用户
#File: ConfigAppearance_p.html
#---------------------------
Appearance and Integration==外观界面
You can change the appearance of the YaCy interface with skins.==您可以在这里修改Yacy的外观界面.
You can change the appearance of the YaCy interface with skins.==您可以在这里修改YaCy的外观界面.
#You can change the appearance of YaCy with skins==Sie können hier das Erscheinungsbild von YaCy mit Skins ändern
The selected skin and language also affects the appearance of the search page.==选择的皮肤和语言也会影响到搜索页面的外观.
If you <a href="ConfigPortal.html">create a search portal with YaCy</a> then you can==如果您<a href="ConfigPortal.html">创建YaCy门户</a>,
@ -383,9 +383,9 @@ Error saving the skin.==保存皮肤时出错.
#---------------------------
Access Configuration==访问设置
Basic Configuration==基本设置
Your YaCy Peer needs some basic information to operate properly==您的Yacy Peer需要一些基本信息才能工作
Your YaCy Peer needs some basic information to operate properly==您的YaCy Peer需要一些基本信息才能工作
Select a language for the interface==选择界面语言
Use Case: what do you want to do with YaCy:==用途: 您用Yacy做什么:
Use Case: what do you want to do with YaCy:==用途: 您用YaCy做什么:
Community-based web search==基于社区的网络搜索
Join and support the global network \'freeworld\', search the web with an uncensored user-owned search network==加入并支持全球网络 'freeworld', 自由地搜索.
Search portal for your own web pages==属于您自己的搜索引擎
@ -834,7 +834,7 @@ Sending Client==发送主机
#---------------------------
>Crawl Profile Editor<==>Crawl文件编辑<
>Crawler Steering<==>Crawler引导<
>Crawl Scheduler<==>Crawl安排<
>Crawl Scheduler<==>定期Crawl<
>Scheduled Crawls can be modified in this table<==>请在下表中修改已安排的crawl<
Crawl profiles hold information about a crawl process that is currently ongoing.==Crawl文件里保存有正在运行的crawl进程信息.
@ -947,60 +947,60 @@ Showing latest \#\[count\]\# lines from a stack of \#\[all\]\# entries.==显示
#File: CrawlStartExpert_p.html
#---------------------------
Expert Crawl Start==Experten Crawl Start
Start Crawling Job:==Starte Crawling Aufgabe:
You can define URLs as start points for Web page crawling and start crawling here. \"Crawling\" means that YaCy will download the given website, extract all links in it and then download the content behind these links. This is repeated as long as specified under \"Crawling Depth\".==Sie können hier URLs angeben, die gecrawlt werden sollen und dann das Crawling starten. "Crawling" bedeutet, dass YaCy die angegebene Webseite runterlädt, alle Links extrahiert und dann den Inhalt hinter diesen Links runterlädt. Dies wird solange wiederholt wie unter "Crawling Tiefe" angegeben.
Attribute<==Attribut<
Value<==Wert<
Description<==Beschreibung<
>Starting Point:==>Startpunkt:
>From URL==>Von URL
From Sitemap==Von Sitemap
From File==Von Datei
Existing start URLs are always re-crawled.==Existierende Start-URLs werden immer wieder gecrawled.
Other already visited URLs are sorted out as \"double\", if they are not allowed using the re-crawl option.==Andere bereits besuchte Seiten werden als 'doppelt' aussortiert, wenn diese nicht ausdrücklich per Re-crawl Option zugelassen wurden.
Create Bookmark==Lesezeichen erstellen
\(works with "Starting Point: From URL" only\)==(funktioniert nur mit "Startpunkt von URL")
Title<==Titel<
Folder<==Ordner<
This option lets you create a bookmark from your crawl start URL.==Diese Option gibt Ihnen die Möglichkeit ein Lesezeichen aus Ihrer Crawl Start URL zu erstellen.
Crawling Depth</label>==Crawling-Tiefe</label>
This defines how often the Crawler will follow links \(of links..\) embedded in websites.==Dies definiert, wie oft der Crawler eingebetteten Links (von Links ...) in Webseiten folgen wird.
0 means that only the page you enter under \"Starting Point\" will be added==0 bedeutet, dass nur die Seite unter "Startpunkt"
to the index. 2-4 is good for normal indexing. Values over 8 are not useful, since a depth-8 crawl will==dem Index zugefügt wird. 2-4 ist gut für normales Indexieren. Werte über 8 sind nicht nützlich, denn eine Suche mit Suchtiefe 8 würde
index approximately 25.600.000.000 pages, maybe this is the whole WWW.==ungefähr 25.600.000.000 Seiten indexieren, vielleicht sogar das ganze WWW.
Scheduled re-crawl<==Geplanter Re-Crawl<
>no&nbsp;doubles<==>Keine&nbsp;Dubletten<
run this crawl once and never load any page that is already known, only the start-url may be loaded again.==Führe diesen Crawl einmalig aus und lade niemals eine schon bekannte Seite nach. Nur die URL unter Startpunkt darf noch einmal geladen werden.
>re-load<==>Nachladen<
run this crawl once, but treat urls that are known since==führe diesen Crawl einmalig aus aber behandle URLs die bereits seit
>years<==>Jahre<
>months<==>Monate<
>days<==>Tage<
>hours<==>Stunden<
not as double and load them again. No scheduled re-crawl.==bekannt sind nicht als Dubletten und lade sie erneut.
>scheduled<==>Geplant<
after starting this crawl, repeat the crawl every==Nach dem Start dieses Crawls, führe ihn jede
> automatically.==> automatisch aus.
A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==Ein Web Crawl führt eine Dubletten Prüfung anhand einer internen Datenbank gegen alle im Internet gefunden Links durch. Wenn dieselbe URL wieder gefunden wird,
then the url is treated as double when you check the \'no doubles\' option. A url may be loaded again when it has reached a specific age,==wird die URL als Dublette behandelt wenn die 'Keine Doubletten' Option ausgewählt wurde. Eine URL kann noch einmal geladen werden wenn sie ein bestimmtes Alter erreicht hat.
to use that check the \'re-load\' option. When you want that this web crawl is repeated automatically, then check the \'scheduled\' option.==Dafür kann die 'Nachladen' Option verwendet werden. Wenn der Web Crawl automatisch wiederholt werden soll, kann die 'Geplant' Option ausgewählt werden.
In this case the crawl is repeated after the given time and no url from the previous crawl is omitted as double.==In diesem Fall wird der Crawl erneut nach der eingestellten Zeit ausgeführt und keine URL aus einem vorhergegangenem Crawl wird als Dublette ausgelassen.
Must-Match Filter==Muss-entsprechen Filter
Use filter==Filter nutzen
Restrict to start domain==Auf Startdomain beschränken
Restrict to sub-path==Auf Sub-Pfad beschränken
Expert Crawl Start==Crawl高级设置
Start Crawling Job:==开始Crawl任务:
You can define URLs as start points for Web page crawling and start crawling here. \"Crawling\" means that YaCy will download the given website, extract all links in it and then download the content behind these links. This is repeated as long as specified under \"Crawling Depth\".==您可以将指定URL作为网页crawling的起始点. "Crawling"意即YaCy会下载指定的网站, 并解析出网站中链接的所有内容, 其深度由"Crawling深度"指定.
Attribute<==属性<
Value<==<
Description<==描述<
>Starting Point:==>起始点:
>From URL==>来自URL
From Sitemap==来自站点地图
From File==来自文件
Existing start URLs are always re-crawled.==已存在的起始链接将会被重新crawl.
Other already visited URLs are sorted out as \"double\", if they are not allowed using the re-crawl option.==对于已经访问过的链接, 如果它们不允许被重新crawl则被标记为'重复'.
Create Bookmark==创建书签
\(works with "Starting Point: From URL" only\)==(仅从"起始链接"开始)
Title<==标题<
Folder<==目录<
This option lets you create a bookmark from your crawl start URL.==此选项会将起始链接设为书签.
Crawling Depth</label>==Crawling深度</label>
This defines how often the Crawler will follow links \(of links..\) embedded in websites.==此选项为crawler跟踪网站嵌入链接的深度.
0 means that only the page you enter under \"Starting Point\" will be added==设置为 0 代表仅将"起始点"
to the index. 2-4 is good for normal indexing. Values over 8 are not useful, since a depth-8 crawl will==添加到索引. 建议设置为2-4. 由于设置为8会索引将近25,000,000,000个页面, 所以不建议设置大于8的值,
index approximately 25.600.000.000 pages, maybe this is the whole WWW.==这可能是整个互联网的内容.
Scheduled re-crawl<==已安排的重新Crawl<
>no&nbsp;doubles<==>无&nbsp;重复<
run this crawl once and never load any page that is already known, only the start-url may be loaded again.==仅运行一次crawl, 并且不载入重复网页, 可能会重载起始链接.
>re-load<==>重载<
run this crawl once, but treat urls that are known since==运行此crawl, 但是将链接视为从
>years<==><
>months<==><
>days<==><
>hours<==><
not as double and load them again. No scheduled re-crawl.==不重复并重新载入. 无安排的crawl任务.
>scheduled<==>定期<
after starting this crawl, repeat the crawl every==运行此crawl后, 每隔
> automatically.==> 运行.
A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==网页crawl参照自身数据库, 对所有找到的链接进行重复性检查. 如果链接重复,
then the url is treated as double when you check the \'no doubles\' option. A url may be loaded again when it has reached a specific age,==并且'无重复'选项打开, 则被以重复链接对待. 如果链接存在时间超过一定时间,
to use that check the \'re-load\' option. When you want that this web crawl is repeated automatically, then check the \'scheduled\' option.==并且'重载'选项打开, 则此链接会被重新读取. 当您想这些crawl自动运行时, 请选中'定期'选项.
In this case the crawl is repeated after the given time and no url from the previous crawl is omitted as double.==此种情况下, crawl会每隔一定时间自动运行并且不会重复寻找前一次crawl中的链接.
Must-Match Filter==必须与过滤器匹配
Use filter==使用过滤器
Restrict to start domain==限制为起始域
Restrict to sub-path==限制为子路经
#The filter is an emacs-like regular expression that must match with the URLs which are used to be crawled;==Dieser Filter ist ein emacs-ähnlicher regulärer Ausdruck, der mit den zu crawlenden URLs übereinstimmen muss;
The filter is a <a href=\"http://java.sun.com/j2se/1.5.0/docs/api/java/util/regex/Pattern.html\">regular expression</a>==Dieser Filter ist ein <a href="http://java.sun.com/j2se/1.5.0/docs/api/java/util/regex/Pattern.html">Regulärer Ausdruck</a>
that must match with the URLs which are used to be crawled; default is \'catch all\'.==der auf die zum Crawlen verwendeten URLs zutreffen muss. Die Standard Einstellung ist 'alle zulassen'.
Example: to allow only urls that contain the word \'science\', set the filter to \'.*science.*\'.==Beispiel: Um nur URLs zuzulassen, die das Wort 'Wissenschaft' beeinhalten, setzen Sie den Filter auf '.*Wissenschaft.*'.
You can also use an automatic domain-restriction to fully crawl a single domain.==Sie können aber auch eine automatische Domain-Beschränkung benutzen, um eine einzelne Domain komplett zu crawlen.
Must-Not-Match Filter==Muss-nicht-entsprechen Filter
This filter must not match to allow that the page is accepted for crawling.==Dieser Filter muss nicht passen, um zu erlauben, dass die Seite zum crawlen akzeptiert wird.
The empty string is a never-match filter which should do well for most cases.==Ein leeres Feld ist ein niemals-passend Filter, der in den meisten Fällen gute Dienste leisten sollte.
If you don't know what this means, please leave this field empty.==Wenn Sie nicht wissen, was dies bedeutet, lassen Sie das Feld einfach leer.
The filter is a <a href=\"http://java.sun.com/j2se/1.5.0/docs/api/java/util/regex/Pattern.html\">regular expression</a>==过滤是一组<a href="http://java.sun.com/j2se/1.5.0/docs/api/java/util/regex/Pattern.html">正则表达式</a>
that must match with the URLs which are used to be crawled; default is \'catch all\'.==, 它们表示了要抓取的链接规则; 默认是'抓取所有'.
Example: to allow only urls that contain the word \'science\', set the filter to \'.*science.*\'.==比如: 如果仅抓取包含'科学'的链接, 可将过滤器设置为 '.*.*'.
You can also use an automatic domain-restriction to fully crawl a single domain.==您也可以使用域限制来抓取整个域.
Must-Not-Match Filter==必须与过滤器不匹配
This filter must not match to allow that the page is accepted for crawling.==这个过滤器表示了所有不被抓取的网页规则.
The empty string is a never-match filter which should do well for most cases.==对于大多数情况可以留空.
If you don't know what this means, please leave this field empty.==如果您不知道这些设置的意义, 请将此留空.
#Re-crawl known URLs:==Re-crawl bekannter URLs:
Use</label>:==Benutzen</label>:
Use</label>:==使用</label>:
#It depends on the age of the last crawl if this is done or not: if the last crawl is older than the given==Es hängt vom Alter des letzten Crawls ab, ob dies getan oder nicht getan wird: wenn der letzte Crawl älter als das angegebene
#Auto-Dom-Filter:==Auto-Dom-Filter:
#This option will automatically create a domain-filter which limits the crawl on domains the crawler==Diese Option erzeugt automatisch einen Domain-Filter der den Crawl auf die Domains beschränkt ,
@ -1008,262 +1008,262 @@ Use</label>:==Benutzen</label>:
#restricting the crawl on only those domains that appear on the bookmark-page. The adequate depth==und dann den folgenden Crawl automatisch auf die Domains zu beschränken, die in der Bookmarkliste vorkamen. Die einzustellende Tiefe für
#for this example would be 1.==dieses Beispiel wäre 1.
#The default value 0 gives no restrictions.==Der Vorgabewert 0 bedeutet, dass nichts eingeschränkt wird.
Maximum Pages per Domain:==Maximale Seiten pro Domain:
Page-Count==Seitenanzahl
You can limit the maximum number of pages that are fetched and indexed from a single domain with this option.==Sie können die maximale Anzahl an Seiten, die von einer einzelnen Domain gefunden und indexiert werden, mit dieser Option begrenzen.
You can combine this limitation with the 'Auto-Dom-Filter', so that the limit is applied to all the domains within==Sie können diese Option auch mit dem 'Auto-Dom-Filter' kombinieren, so dass das Limit für alle Domains mit der
the given depth. Domains outside the given depth are then sorted-out anyway.==angegebenen Tiefe gilt. Domains ausserhalb der angegebenen Tiefe werden einfach aussortiert.
Accept URLs with==Akzeptiere URLs mit
dynamic URLs==dynamische URLs
A questionmark is usually a hint for a dynamic page. URLs pointing to dynamic content should usually not be crawled. However, there are sometimes web pages with static content that==Ein Fragezeichen ist normalerweise ein Hinweis auf eine dynamische Seite. URLs mit dynamischem Inhalt sollten normalerweise nicht gecrawlt werden. Wie auch immer, manchmal gibt es Seiten mit festem Inhalt, die
is accessed with URLs containing question marks. If you are unsure, do not check this to avoid crawl loops.==nur von URLs zu erreichen sind, die ein Fragezeichen enthalten. Wenn Sie unsicher sind, aktivieren Sie diese Funktion nicht, um Crawl Schleifen zu vermeiden.
Store to Web Cache==Speichern im Web-Cache
This option is used by default for proxy prefetch, but is not needed for explicit crawling.==Diese Option ist standardmäßig beim Proxy aktiviert, wird aber zum reinen Crawlen nicht gebraucht.
Policy for usage of Web Cache==Regeln für die Nutzung des Web Caches
The caching policy states when to use the cache during crawling:==Die Caching Regeln legen fest wann der Cache während des Crawlen verwendet wird:
Maximum Pages per Domain:==每个域允许的最多页面:
Page-Count==页面计数
You can limit the maximum number of pages that are fetched and indexed from a single domain with this option.==您可以将从单个域中抓取和索引的页面数目限制为此值.
You can combine this limitation with the 'Auto-Dom-Filter', so that the limit is applied to all the domains within==您可以将此设置与'Auto-Dom-Filter'结合起来, 以限制给定深度中所有域.
the given depth. Domains outside the given depth are then sorted-out anyway.==超出深度范围的域会被自动忽略.
Accept URLs with==接受链接
dynamic URLs==动态URL
A questionmark is usually a hint for a dynamic page. URLs pointing to dynamic content should usually not be crawled. However, there are sometimes web pages with static content that==动态页面通常用问号标记. 通常不会抓取指向动态页面的链接. 然而, 也有些含有静态内容的页面用问号标记.
is accessed with URLs containing question marks. If you are unsure, do not check this to avoid crawl loops.==如果您不确定, 不要选中此项, 以防抓取时陷入死循环.
Store to Web Cache==存储到网页缓存
This option is used by default for proxy prefetch, but is not needed for explicit crawling.==这个选项默认打开, 并用于预抓取, 但对于精确抓取此选项无效.
Policy for usage of Web Cache==网页缓存使用策略
The caching policy states when to use the cache during crawling:==缓存策略即表示抓取时何时使用缓存:
#no&nbsp;cache==no&nbsp;cache
no&nbsp;cache==kein&nbsp;Cache
no&nbsp;cache==无&nbsp;缓存
#if&nbsp;fresh==if&nbsp;fresh
if&nbsp;fresh==bei&nbsp;frischem&nbsp;Cache&nbsp;Hit
if&nbsp;fresh==如果&nbsp;有更新&nbsp;缓存&nbsp;命中
#if&nbsp;exist==if&nbsp;exist
if&nbsp;exist==bei&nbsp;Cache&nbsp;Hit
if&nbsp;exist==如果&nbsp;缓存&nbsp;命中
#cache&nbsp;only==cache&nbsp;only
cache&nbsp;only==nur&nbsp;Cache
never use the cache, all content from fresh internet source;==Den Cache nie verwenden, allen Inhalt frisch von der Online Quelle
use the cache if the cache exists and is fresh using the proxy-fresh rules;==Verwende den Cache, wenn ein Treffer im Cache existiert und dieser aktuell ist.
use the cache if the cache exist. Do no check freshness. Otherwise use online source;==Verwende den Cache, wenn ein Treffer existiert ohne die Aktualität zu prüfen. Andernfalls verwende die Quelle online;
never go online, use all content from cache. If no cache exist, treat content as unavailable==Gehe niemals online, verwende nur den Cache Inhalt. Wenn kein Cache existiert, behandle den Inhalt als nicht verfügbar
Do Local Indexing:==Lokales Indexieren:
index text==Indexiere Text
index media==Indexiere Medien
This enables indexing of the wepages the crawler will download. This should be switched on by default, unless you want to crawl only to fill the==Dies aktiviert die Indexierung von Webseiten, die der Crawler runterlädt. Dies sollte standardmässig aktiviert sein, ausser Sie wollen den
Document Cache without indexing.==Dokumenten Cache ohne Indexierung füllen.
Do Remote Indexing==Nutze Remote Indexierung
Describe your intention to start this global crawl \(optional\)==Beschreiben Sie warum Sie diesen globalen Crawl starten (optional)
This message will appear in the 'Other Peer Crawl Start' table of other peers.==Diese Nachricht wird bei anderen Peers in der 'Anderer Peer Crawl Start' Tabelle angezeigt.
If checked, the crawler will contact other peers and use them as remote indexers for your crawl.==Wenn aktiviert, wird der Crawler mit anderen Peers Kontakt aufnehmen und diese als Remote Indexierer für Ihren Crawl benutzen.
If you need your crawling results locally, you should switch this off.==Wenn Sie die Crawling Ergebnisse lokal benötigen, sollten Sie diese Funktion deaktivieren.
Only senior and principal peers can initiate or receive remote crawls.==Nur Senior und Principal Peers können einen remote Crawl initiieren oder erhalten.
A YaCyNews message will be created to inform all peers about a global crawl==Eine Nachricht wird im YaCy News Bereich angezeigt, um alle Peers von diesem globalen Crawl zu informieren
so they can omit starting a crawl with the same start point.==damit sie es vermeiden können, einen Crawl vom selben Startpunkt zu starten.
Exclude <em>static</em> Stop-Words==<em>Statische</em> Stop-Words ausschließen
This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file <tt>yacy.stopwords</tt> from indexing,==Dies ist sinnvoll, um zu verhindern, dass extrem häufig vorkommende Wörter wie z.B. "der", "die", "das", "und", "er", "sie" etc in die Datenbank aufgenommen werden. Um alle Wörter von der Indexierung auszuschließen, die in der Datei <tt>yacy.stopwords</tt> enthalten sind,
check this box.==aktivieren Sie diese Box.
"Start New Crawl"=="Neuen Crawl starten"
cache&nbsp;only==仅&nbsp;缓存
never use the cache, all content from fresh internet source;==从不使用缓存内容, 全部从因特网资源即时抓取;
use the cache if the cache exists and is fresh using the proxy-fresh rules;==如果缓存中存在并且是最新则使用代理刷新规则;
use the cache if the cache exist. Do no check freshness. Otherwise use online source;==如果缓存存在则使用缓存. 不检查是否最新. 否则使用最新源;
never go online, use all content from cache. If no cache exist, treat content as unavailable==从不检查线上内容, 全部使用缓存内容. 如果缓存存在, 将其视为无效
Do Local Indexing:==本地索引:
index text==索引文本
index media==索引媒体
This enables indexing of the wepages the crawler will download. This should be switched on by default, unless you want to crawl only to fill the==此选项开启时, crawler会下载网页索引. 默认打开, 除非您仅要填充
Document Cache without indexing.==文件缓存而不进行索引.
Do Remote Indexing==远程索引
Describe your intention to start this global crawl \(optional\)==在这填入您要进行全球crawl的目的(可选)
This message will appear in the 'Other Peer Crawl Start' table of other peers.==此消息会显示在其他peer的'其他peer crawl起始'列表中.
If checked, the crawler will contact other peers and use them as remote indexers for your crawl.==如果选中, crawler会联系其他peer, 并将其作为此次crawl的远程索引器.
If you need your crawling results locally, you should switch this off.==如果您仅想crawl本地内容, 请关闭此设置.
Only senior and principal peers can initiate or receive remote crawls.==仅高级peer和主peer能初始化或者接收远程crawl.
A YaCyNews message will be created to inform all peers about a global crawl==YaCy新闻消息中会通知其他peer这个全球crawl,
so they can omit starting a crawl with the same start point.==然后他们才能以相同起始点进行crawl.
Exclude <em>static</em> Stop-Words==排除<em>静态</em>非索引字
This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file <tt>yacy.stopwords</tt> from indexing,==此项用于规避极常用字, 比如 "个", "他", "她", "它"等. 当要在索引时排除所有在<tt>yacy.stopwords</tt>文件中的字词时,
check this box.==请选中此项.
"Start New Crawl"=="开始新crawl"
#-----------------------------
#File: CrawlStartIntranet_p.html
#---------------------------
#Intranet Crawl Start==Intranet Crawl Start
When an index domain is configured to contain intranet links,==Wenn eine Index Domain konfiguriert wurde die Intranet Links enthält,
the intranet may be scanned for available servers.==kann dieses Intranet auf verfügbare Server gescannt werden.
Please select below the servers in your intranet that you want to fetch into the search index.==Bitte in der folgenden Server Liste aus Ihrem Intranet auswählen, welche Sie in den Suchindex aufnehmen wollen.
This network definition does not allow intranet links.==Diese Netzwerk Konfiguration erlaubt keine Intranet Links.
A list of intranet servers is only available if you confiugure YaCy to index intranet targets.==Eine Liste mit Servern aus dem Intranet ist nur verfügbar, wenn Sie YaCy auch konfiguriert haben Intranetseiten zu indexieren.
To do so, open the <a href=\"ConfigBasic.html\">Basic Configuration</a> servlet and select the \'Intranet Indexing\' use case.==Um diese Einstellung vorzunehmen, bitte im Servlet <a href="ConfigBasic.html">Basis Konfiguration</a> den Anwendungsfall 'Intranet Indexierung' auswählen.
Available Intranet Server==Verfügbare Intranet Server
When an index domain is configured to contain intranet links,==当索引域中包含局域网链接时,
the intranet may be scanned for available servers.==可用服务器会扫描它们.
Please select below the servers in your intranet that you want to fetch into the search index.==以下服务器在您的局域网中, 请选择您想添加到搜索索引中的主机.
This network definition does not allow intranet links.==当前网络定义不允许局域网链接.
A list of intranet servers is only available if you confiugure YaCy to index intranet targets.==仅当您将YaCy配置为索引局域网目标, 以下条目才有效.
To do so, open the <a href=\"ConfigBasic.html\">Basic Configuration</a> servlet and select the \'Intranet Indexing\' use case.==将YaCy配置为索引局域网目标, 打开<a href="ConfigBasic.html">基本设置</a>页面, 选中'索引局域网'.
Available Intranet Server==可用局域网服务器
#>IP<==>IP<
#>URL<==>URL<
>Process<==>Status<
>not in index<==>Nicht im Index<
>indexed<==>Indexiert<
"Add Selected Servers to Crawler"=="Füge ausgewählte Server zum Crawler hinzu"
>Process<==>状态<
>not in index<==>不在索引中<
>indexed<==>已加入索引<
"Add Selected Servers to Crawler"=="添加选中服务器到crawler"
#-----------------------------
#File: CrawlStartScanner_p.html
#---------------------------
Network Scanner==Netzwerk Scanner
YaCy can scan a network segment for available http, ftp and smb server.==YaCy kann ein Netzwerksegment auf verfügbare HTTP, FTP und SMB Server hin absuchen.
You must first select a IP range and then, after this range is scanned,==Sie müssen zuerst einen IP Bereich festlegen und dann, nachdem dieser Bereich gescannt wurde,
it is possible to select servers that had been found for a full-site crawl.==ist es möglich einen gefunden Server für eine volle Seiten Suche crawlen zu lassen.
Network Scanner==网络扫描器
YaCy can scan a network segment for available http, ftp and smb server.==YaCy可扫描http, ftp 和smb服务器.
You must first select a IP range and then, after this range is scanned,==须先指定IP范围, 再进行扫描,
it is possible to select servers that had been found for a full-site crawl.==才有可能选择主机并将其作为全站crawl的服务器.
No servers had been detected in the given IP range \#\[iprange\]\#.
Please enter a different IP range for another scan.==Bitte geben Sie einen anderen IP Bereich ein für einen weiteren Scan.
Please wait...==Bitte warten...
>Scan the network<==>Das Netzwerk Scannen<
Scan Range==Scan Bereich
Scan sub-range with given host==Scanne Unterbereich von angegebenen Host aus
Full Intranet Scan:==Voller Intranet Scan:
Do not use intranet scan results, you are not in an intranet environment!==Verwenden Sie nicht die Intranet Scan Resultate, da sie sich nicht in einer Intranet Umgebung befinden!
>Scan Cache<==>Scan Cache<
accumulate scan results with access type \"granted\" into scan cache \(do not delete old scan result\)==Sammle Scan Ergebnisse mit dem Zugriffstyp "granted" im Scan Cache (Lösche keine alten Scan Ergebnisse)
>Service Type<==>Service Typ<
Please enter a different IP range for another scan.==未检测到可用服务器, 请重新指定IP范围.
Please wait...==请稍候...
>Scan the network<==>扫描网络<
Scan Range==扫描范围
Scan sub-range with given host==扫描给定主机的子域
Full Intranet Scan:==局域网完全扫描:
Do not use intranet scan results, you are not in an intranet environment!==由于您当前不处于局域网环境, 请不要使用局域网扫描结果!
>Scan Cache<==>扫描缓存<
accumulate scan results with access type \"granted\" into scan cache \(do not delete old scan result\)==使用"已授权"的缓存以加速扫描(不要删除上次扫描结果)
>Service Type<==>服务类型<
#>ftp==>FTP
#>smb==>SMB
#>http==>HTTP
#>https==>HTTPS
>Scheduler<==>Scan Planung<
run only a scan==Nur einmalig Scannen
scan and add all sites with granted access automatically. This disables the scan cache accumulation.==Scannen und alle Webseiten mit erlaubtem Zugriff automatisch hinzufügen. Diese Einstellungen deaktiviert die Scan Cache Ansammlung.
Look every==Überprüfe alle
>minutes<==>Minuten<
>hours<==>Stunden<
>days<==>Tage<
again and add new sites automatically to indexer.==wieder und füge neue Seiten automatisch zum Indexer hinzu.
Sites that do not appear during a scheduled scan period will be excluded from search results.==Seiten die nicht im Laufe eines geplanten Scans auftauchen werden von den Suchergebnissen ausgeschlossen.
"Scan"=="Scannen"
The following servers had been detected:==Die folgenden Server wurden entdeckt:
Available server within the given IP range==Verfügbare Server innerhalb des angegebenen IP Bereichs
>Protocol<==>Protokoll<
>Scheduler<==>定期扫描<
run only a scan==运行一次扫描
scan and add all sites with granted access automatically. This disables the scan cache accumulation.==扫描并自动添加已授权站点. 此选项会关闭缓存扫描加速.
Look every==每隔
>minutes<==><
>hours<==><
>days<==><
again and add new sites automatically to indexer.==再次检视, 并自动添加新站点到索引器中.
Sites that do not appear during a scheduled scan period will be excluded from search results.==周期扫描中未上线的站点会被自动排除.
"Scan"=="扫描"
The following servers had been detected:==已检测到以下服务器:
Available server within the given IP range==指定IP范围内的可用服务器
>Protocol<==>协议<
#>IP<==>IP<
#>URL<==>URL<
>Access<==>Zugriff<
>Process<==>Prozess<
>unknown<==>unbekannt<
>empty<==>leer<
>granted<==>erlaubt<
>denied<==>verweigert<
>not in index<==>nicht im Index<
>indexed<==>indexiert<
"Add Selected Servers to Crawler"=="Füge ausgewählte Server zum Crawlen hinzu"
>Access<==>权限<
>Process<==>状态<
>unknown<==>未知<
>empty<==><
>granted<==>已授权<
>denied<==>拒绝<
>not in index<==>未在索引中<
>indexed<==>已被索引<
"Add Selected Servers to Crawler"=="添加选中服务器到crawler"
#-----------------------------
#File: CrawlStartSite_p.html
#---------------------------
>Site Crawling<==>Seiten Crawlen<
Site Crawler:==Seiten Crawler:
Download all web pages from a given domain or base URL.==Downloaden aller Webseiten von einer gegebenen Domain oder Basis URL.
>Site Crawl Start<==>Seiten Crawl Start<
>Site<==>Seite<
Link-List of URL==Link Liste der URL
>Scheduler<==>Zeitplanung<
run this crawl once==führe diesen Crawl nur einmalig aus
scheduled, look every==geplant, überprüfe alle
>minutes<==>Minuten<
>hours<==>Stunden<
>days<==>Tage<
for new documents automatically.==automatisch auf neue Dokument.
>Path<==>Pfad<
load all files in domain==Lade alle Dateien in der Domäne
load only files in a sub-path of given url==Lade nur Dateien in einem Unterpfad der angegebenen URL
>Limitation<==>Einschränkungen<
not more than <==nicht mehr als <
>documents<==>Dokumente<
>Dynamic URLs<==>Dynamische URLs<
allow <==erlaube <
urls with a \'\?\' in the path==URLs mit einem '?' im Pfad
>Site Crawling<==>crawl站点<
Site Crawler:==站点crawler:
Download all web pages from a given domain or base URL.==下载给定域或者URL里的所有网页.
>Site Crawl Start<==>起始crawl站点<
>Site<==>站点<
Link-List of URL==URL链接表
>Scheduler<==>定时器<
run this crawl once==运行此crawl
scheduled, look every==
>minutes<==>分钟<
>hours<==>小时<
>days<==><
for new documents automatically.==, 以自动查找新文件.
>Path<==>路径<
load all files in domain==载入域中所有文件
load only files in a sub-path of given url==仅载入给定URL子路径中文件
>Limitation<==>限制<
not more than <==不超过<
>documents<==>文件<
>Dynamic URLs<==>动态URL<
allow <==允许<
urls with a \'\?\' in the path==路径中含有'?'
#>Start<==>Start<
"Start New Crawl"=="Starte neuen Crawl"
Hints<==Hinweise<
>Crawl Speed Limitation<==>Einschränkung der Crawl Geschwindigkeit<
No more that two pages are loaded from the same host in one second \(not more that 120 document per minute\) to limit the load on the target server.==Es werden nicht mehr als 2 Seiten pro Sekunde vom selben Host geladen (nicht mehr als 120 Dokumente per Minute), um die Last auf den Zielserver zu minimieren.
>Target Balancer<==>Ziel Balancer<
A second crawl for a different host increases the throughput to a maximum of 240 documents per minute since the crawler balances the load over all hosts.==Ein zweiter Crawl für einen anderen Host erhöht den Durchsatz auf ein Maximum von 240 Dokumenten pro Minute weil der der Crawler Balancer die Last über alle Hosts verteilt.
>High Speed Crawling<==>Hochgeschwindigkeits Crawlen<
A \'shallow crawl\' which is not limited to a single host \(or site\)==Ein 'oberflächlicher Crawl' der nicht auf einen einzelnen Host (oder eine Seite) limitiert ist
can extend the pages per minute \(ppm\) rate to unlimited documents per minute when the number of target hosts is high.==kann die Anzahl der Seiten pro Minute (ppm) auf unendlich viele Dokumente pro Minute erweitern wenn die Anzahl der Ziel Hosts hoch ist.
This can be done using the <a href=\"CrawlStartExpert_p.html\">Expert Crawl Start</a> servlet.==Das kann erreicht werden durch Verwendung des <a href="CrawlStartExpert_p.html">Crawl Start (Expert)</a> Servlets.
>Scheduler Steering<==>Geplante Steuerung<
The scheduler on crawls can be changed or removed using the <a href=\"Table_API_p.html\">API Steering</a>.==Die geplante Ausführung von Crawls kann geändert oder entfernt werden mit der <a href="Table_API_p.html">API Aktionen Steuerung</a>.
"Start New Crawl"=="开始新crawl"
Hints<==提示<
>Crawl Speed Limitation<==>crawl速度限制<
No more that two pages are loaded from the same host in one second \(not more that 120 document per minute\) to limit the load on the target server.==每秒最多从同一主机中载入两个页面(每分钟不超过120个文件)以限制目标主机负载.
>Target Balancer<==>目标平衡器<
A second crawl for a different host increases the throughput to a maximum of 240 documents per minute since the crawler balances the load over all hosts.==对于不同主机的二次crawl, 会上升到每分钟最多240个文件, 因为crawler会自动平衡所有主机的负载.
>High Speed Crawling<==>高速crawl<
A \'shallow crawl\' which is not limited to a single host \(or site\)==当目标主机很多时, 用于多个主机(或站点)的'浅crawl'方式,
can extend the pages per minute \(ppm\) rate to unlimited documents per minute when the number of target hosts is high.==会增加每秒页面数(ppm).
This can be done using the <a href=\"CrawlStartExpert_p.html\">Expert Crawl Start</a> servlet.==对应设置<a href="CrawlStartExpert_p.html">专家模式起始crawla>选项.
>Scheduler Steering<==>定时器引导<
The scheduler on crawls can be changed or removed using the <a href=\"Table_API_p.html\">API Steering</a>.==可以使用<a href="Table_API_p.html">API引导</a>改变或删除crawl定时器.
#-----------------------------
#File: Help.html
#---------------------------
YaCy: Help==YaCy: Hilfe
Tutorial==Anleitung
You are using the administration interface of your own search engine==Sie benutzen gerade das Administrationsinterface ihrer eigenen Suchmaschine
You can create your own search index with YaCy==Sie können mit YaCy Ihren eigenen Suchindex erstellen
To learn how to do that, watch one of the demonstration videos below==Bitte sehen Sie als Anleitung eine Demonstration (2. Video unten in deutscher Sprache)
YaCy: Help==YaCy: 帮助
Tutorial==新手教程
You are using the administration interface of your own search engine==您正在搜索引擎的管理界面
You can create your own search index with YaCy==您可以用YaCy创建您自己的搜索索引
To learn how to do that, watch one of the demonstration videos below==观看以下demo视频以了解更多
#-----------------------------
#File: index.html
#---------------------------
YaCy \'\#\[clientname\]\#\': Search Page==YaCy '#[clientname]#': Suchseite
YaCy \'\#\[clientname\]\#\': Search Page==YaCy '#[clientname]#': 搜索页面
#kiosk mode==Kiosk Modus
"Search"=="Suchen"
"Search"=="搜索"
#Text==Text
Images==Bilder
Images==图像
#Audio==Audio
Video==Videos
Applications==Anwendungen
more options...==mehr Optionen...
advanced parameters==erweiterte Parameter
Max. number of results==Max. Anzahl der Ergebnisse
Results per page==Ergebnisse pro Seite
Resource==Quelle
global==global
>local==>lokal
Global search is disabled because==Die globale Suche ist deaktiviert, denn
DHT Distribution</a> is==die DHT-Verteilung</a> ist
Index Receive</a> is==der Index-Empfang</a> ist
DHT Distribution and Index Receive</a> are==DHT-Verteilung und Index-Empfang</a> sind
disabled.\#\(==deaktiviert.#(
URL mask==URL-Filter
restrict on==beschränken auf
show all==alle zeigen
Video==视频
Applications==应用程序
more options...==更多设置...
advanced parameters==高级参数
Max. number of results==搜索结果最多有
Results per page==每个页面显示结果
Resource==资源
global==全球
>local==>本地
Global search is disabled because==全球搜索被禁用, 因为
DHT Distribution</a> is==DHT分发</a>被
Index Receive</a> is==索引接收</a>被
DHT Distribution and Index Receive</a> are==DHT分发和索引接受</a>被
disabled.\#\(==禁用.#(
URL mask==URL掩码
restrict on==限制
show all==显示所有
#überarbeiten!!!
Prefer mask==Vorzugsmaske
Constraints==Einschränkungen
only index pages==Nur Index-Seiten
"authentication required"=="Autorisierung erforderlich"
Disable search function for users without authorization==Suchfunktion für Benutzer ohne Autorisierung sperren
Enable web search to everyone==Suchfunktion für alle Nutzer erlauben
the peer-to-peer network==Peer-to-Peer-Netzwerk
only the local index==Nur lokaler Index
Query Operators==Such-Operatoren
restrictions==Restriktionen
only urls with the &lt;phrase&gt; in the url==Nur URLs, welche &lt;phrase&gt; enthalten
only urls with extension==Nur URLs mit der Dateinamenserweiterung
only urls from host==Nur URLs vom Server
only pages with as-author-anotated==Nur Seiten mit dem angegebenen Autor
only pages from top-level-domains==Nur Seiten aus der Top-Level-Domain
only resources from http or https servers==Nur Ressources auf HTTP- oder HTTPS-Servern
only resources from ftp servers==Nur Ressourcen auf FTP-Servern
they are rare==eher selten
crawl them yourself==crawlen Sie sie selbst
only resources from smb servers==Nur Ressourcen von SMB-Servern
Intranet Indexing</a> must be selected==Intranet-Indexierung</a> muss ausgewählt sein
only files from a local file system==Nur Dateien aus dem lokalen Dateisystem
ranking modifier==Ranking-Modifizierung
sort by date==Sortierung nach Datum
latest first==Neuste zuerst
multiple words shall appear near==Mehrere Wörter sollen nah zusammen stehen
doublequotes==Anführungszeichen
prefer given language==Angegebene Sprache bevorzugen
an ISO639 2-letter code==2-Buchstaben-Ländercode nach ISO639
heuristics==Heuristiken
add search results from scroogle==Benutze zusätzliche Ergebnisse von Scroogle
add search results from blekko==Benutze zusätzliche Ergebnisse von Blekko
Search Navigation==Such-Navigation
keyboard shotcuts==Tastatur-Kürzel
tab or page-up==Tab oder Bild hoch
next result page==Nächste Ergebnisseite
page-down==Bild nach unten
previous result page==Vorherige Ergebnisseite
automatic result retrieval==Automatische Ergebnis-Abfrage
browser integration==Browserintegration
after searching, click-open on the default search engine in the upper right search field of your browser and select 'Add "YaCy Search.."'==Nach der Suche clicken Sie auf das Suchfeld Ihres Browsers und wählen Sie '"YaCy" hinzufügen'
search as rss feed==Suche als RSS-Feed
click on the red icon in the upper right after a search. this works good in combination with the '/date' ranking modifier. See an==Klicken Sie nach der Suche auf das rote Icon in der rechten oberen Ecke. Dies funktioniert gut mit dem '/date' Ranking-Modifizierer. Hier ein
>example==>Beispiel
json search results==JSON-Suchergebnisse
for ajax developers: get the search rss feed and replace the '.rss' extension in the search result url with '.json'==Für AJAX-Entwickler: Rufen Sie den RSS-Feed auf und ersetzen Sie '.rss' durch '.json'
Prefer mask==首选掩码
Constraints==约束
only index pages==仅索引页面
"authentication required"=="需要认证"
Disable search function for users without authorization==禁止未授权用户搜索
Enable web search to everyone==允许所有人搜索
the peer-to-peer network==P2P网络
only the local index==仅本地索引
Query Operators==查询操作
restrictions==限制
only urls with the &lt;phrase&gt; in the url==仅包含&lt;phrase&gt;的URL
only urls with extension==仅带扩展名的URL
only urls from host==仅来自主机的URL
only pages with as-author-anotated==仅作者授权页面
only pages from top-level-domains==仅来自顶级域名的页面
only resources from http or https servers==仅来自http/https服务器的资源
only resources from ftp servers==仅来自ftp服务器的资源
they are rare==它们很少
crawl them yourself==您自己crawl它们
only resources from smb servers==仅来自smb服务器的资源
Intranet Indexing</a> must be selected==局域网索引</a>必须被选中
only files from a local file system==仅来自本机文件系统的文件
ranking modifier==排名修改
sort by date==按日期排序
latest first==最新者居首
multiple words shall appear near==多个字会出现在
doublequotes==双引号
prefer given language==首选语言
an ISO639 2-letter code==ISO639标准的双字母代码
heuristics==启发式
add search results from scroogle==添加来自scroogle的搜索结果
add search results from blekko==添加来自blekko的搜索结果
Search Navigation==搜索导航
keyboard shotcuts==快捷键
tab or page-up==Tab或者Page Up
next result page==下一页
page-down==Page Down
previous result page==上一页
automatic result retrieval==自动结果检索
browser integration==浏览集成
after searching, click-open on the default search engine in the upper right search field of your browser and select 'Add "YaCy Search.."'==搜索后, 点击浏览器右上方区域中的默认搜索引擎, 并选择'添加"YaCy"'
search as rss feed==作为RSS-Feed搜索
click on the red icon in the upper right after a search. this works good in combination with the '/date' ranking modifier. See an==搜索后点击右上方的红色图标. 配合'/date'排名修改, 能取得较好效果.
>example==>
json search results==JSON搜索结果
for ajax developers: get the search rss feed and replace the '.rss' extension in the search result url with '.json'==对AJAX开发者: 获取搜索结果页的RSS-Feed, 并用'.json'替换'.rss'搜索结果链接中的扩展名
#-----------------------------
#File: IndexCleaner_p.html
#---------------------------
Index Cleaner==Index Aufräumer
>URL-DB-Cleaner==>URL-DB-Aufräumer
Index Cleaner==索引清理
>URL-DB-Cleaner==>URL-DB-清理
#ThreadAlive:
#ThreadToString:
Total URLs searched:==Insgesamt durchsuchte URLs:
Blacklisted URLs found:==URLS auf Blacklist gefunden:
Percentage blacklisted:==Prozent auf Blacklist:
last searched URL:==zuletzt durchsuchte URL:
last blacklisted URL found:==zuletzt gefundene URL auf Blacklist:
>RWI-DB-Cleaner==>RWI-DB-Aufräumer
RWIs at Start:==RWIs beim Start:
RWIs now:==RWIs jetzt:
wordHash in Progress:==Wort-Hash in Benutzung:
last wordHash with deleted URLs:==letzter Wort-Hash mit gelöschten URLs:
Number of deleted URLs in on this Hash:==Anzahl an gelöschten URLs in diesem Hash:
URL-DB-Cleaner - Clean up the database by deletion of blacklisted urls:==URL-DB-Aufräumer - Räumen Sie Ihre Datenbank auf, indem Sie URLs, die auf Ihrer Blacklist stehen, löschen:
Start/Resume==Start/Fortsetzen
Stop==Stopp
Pause==Anhalten
RWI-DB-Cleaner - Clean up the database by deletion of words with reference to blacklisted urls:==RWI-DB-Aufräumer - Räumen Sie Ihre Datenbank auf, indem Sie Wörter, die mit Ihrer Blacklist verbunden sind, löschen:
Total URLs searched:==搜索到的全部URL:
Blacklisted URLs found:==搜索到的黑名单URL:
Percentage blacklisted:==黑名单占百分比:
last searched URL:==最近搜索到的URL:
last blacklisted URL found:==最近搜索到的黑名单URL:
>RWI-DB-Cleaner==>RWI-DB-清理
RWIs at Start:==启动时RWIs:
RWIs now:==当前RWIs:
wordHash in Progress:==处理中的Hash值:
last wordHash with deleted URLs:==已删除URL的Hash值:
Number of deleted URLs in on this Hash:==此Hash中已删除的URL数:
URL-DB-Cleaner - Clean up the database by deletion of blacklisted urls:==URL-DB-清理 - 清理数据库, 会删除黑名单URl:
Start/Resume==开始/继续
Stop==停止
Pause==暂停
RWI-DB-Cleaner - Clean up the database by deletion of words with reference to blacklisted urls:==RWI-DB-清理 - 清理数据库, 会删除与黑名单URL相关的信息:
#-----------------------------
#File: IndexControlRWIs_p.html

Loading…
Cancel
Save