From 8e604ecb61e10596058db1d2f33c365cf0b133fd Mon Sep 17 00:00:00 2001 From: lofyer Date: Thu, 15 Dec 2011 21:13:04 +0800 Subject: [PATCH] till PerformanceMemory_p.html --- locales/cn.lng | 966 ++++++++++++++++++++++++------------------------- 1 file changed, 483 insertions(+), 483 deletions(-) diff --git a/locales/cn.lng b/locales/cn.lng index 681ef2389..5c56ecc38 100755 --- a/locales/cn.lng +++ b/locales/cn.lng @@ -30,7 +30,7 @@ Server Access Overview==网站访问概况 This is a list of \#\[num\]\# requests to the local http server within the last hour.==最近一小时内有 #[num]# 个到本地的访问请求. This is a list of requests to the local http server within the last hour.==此列表显示最近一小时内到本机的访问请求. Showing \#\[num\]\# requests.==显示 #[num]# 个请求. ->Host<==>主机< +#>Host<==>Host< >Path<==>路径< Date<==日期< Access Count During==访问时间 @@ -39,13 +39,13 @@ last Minute==最近1 分 last 10 Minutes==最近10 分 last Hour==最近1 小时 The following hosts are registered as source for brute-force requests to protected pages==以下主机作为保护页面强制请求的源 ->Host==>主机 +#>Host==>Host Access Times==访问时间 Server Access Details==服务器访问细节 Local Search Log==本地搜索日志 Local Search Host Tracker==本地搜索主机跟踪 Remote Search Log==远端搜索日志 -Total:==所有: +#Total:==Total: Success:==成功: Remote Search Host Tracker==远端搜索跟踪 This is a list of searches that had been requested from this\' peer search interface==此列表显示从远端peer所进行的搜索 @@ -58,7 +58,7 @@ Used Time \(ms\)==消耗时间(毫秒) URL fetch \(ms\)==获取URL(毫秒) Snippet comp \(ms\)==片段比较(毫秒) Query==查询字符 ->User Agent<==>用户端信息< +#>User Agent<==>User Agent< Search Word Hashes==搜索字哈希值 Count==计数 Queries Per Last Hour==小时平均查询 @@ -92,7 +92,7 @@ Blacklist Pattern==黑名单规则 Edit selected pattern\(s\)==编辑选中规则 Delete selected pattern\(s\)==删除选中规则 Move selected pattern\(s\) to==移动选中规则 -You can select them here for deletion==您可以从这里选择要删除的项 +#You can select them here for deletion==您可以从这里选择要删除的项 Add new pattern:==添加新规则: "Add URL pattern"=="添加URL规则" The right \'\*\', after the \'\/\', can be replaced by a regex.== 在 '/' 后边的 '*' ,可用正则表达式表示. @@ -188,7 +188,7 @@ Comments==评论 Blog-Home==博客主页 Author:==作者: Subject:==标题: -Text:==内容: +#Text:==Text: You can use==您可以用 Yacy-Wiki Code==YaCy-Wiki 代码 here.==. @@ -209,7 +209,7 @@ Confirm deletion==确定删除 Yes, delete it.==是, 删除. No, leave it.==不, 保留. Import was successful!==导入成功! -Import failed, maybe the supplied file was no valid blog-backup?==导入失败, 可能提供的文件不是有效的博客副本? +Import failed, maybe the supplied file was no valid blog-backup?==导入失败, 可能提供的文件不是有效的博客备份? Please select the XML-file you want to import:==请选择您想导入的XML文件: #----------------------------- @@ -223,7 +223,7 @@ delete==删除 allow==允许 Author:==作者: Subject:==标题: -Text:==内容: +#Text:==Text: You can use==您可以用 Yacy-Wiki Code==YaCy-Wiki 代码 here.==在这里. @@ -250,7 +250,7 @@ Import HTML Bookmarks==导入HTML书签 "import"=="导入" Default Tags:==默认标签 imported==已导入 -Edit Bookmark==编辑书签 +#Edit Bookmark==编辑书签 #URL:==URL: Title:==标题: Description:==描述: @@ -272,14 +272,14 @@ Edit==编辑 Delete==删除 Folders==目录 Bookmark Folder==书签目录 -Tags==标签 +#Tags==标签 Bookmark List==书签列表 previous page==前一页 next page==后一页 All==所有 Show==显示 Bookmarks per page.==每页书签. -unsorted==默认排序 +#unsorted==默认排序 #----------------------------- #File: Collage.html @@ -368,7 +368,7 @@ The generic skin \'generic_pd\' can be configured here with custom colors:==能 >Search Headline<==>搜索页面 标题< >Search URL==>搜索页面 链接< "Set Colors"=="设置颜色" ->Skin Download<==>下载皮肤< +#>Skin Download<==>下载皮肤< Skins can be installed from download locations==安装下载皮肤 Install new skin from URL==从URL安装皮肤 Use this skin==使用这个皮肤 @@ -487,8 +487,8 @@ might overwrite existing data if a file of the same name exists already.==, 旧 #File: ConfigLiveSearch.html #--------------------------- -Integration of a Search Field for Live Search==搜索栏集成即搜即得 -A \'Live-Search\' input field that reacts as search-as-you-type in a pop-up window can easily be integrated in any web page=='即搜即得'输入栏: 即当您在搜索栏键入关键字时, 会在网页中弹出搜索对话框按钮 +Integration of a Search Field for Live Search==搜索栏集成: 即时搜索 +A \'Live-Search\' input field that reacts as search-as-you-type in a pop-up window can easily be integrated in any web page=='即时搜索'输入栏: 即当您在搜索栏键入关键字时, 会在网页中弹出搜索对话框按钮 This is the same function as can be seen on all pages of the YaCy online-interface \(look at the window in the upper right corner\)==当您在线使用YaCy时, 您会在搜索页面看到相应功能(页面右上角) Just use the code snippet below to integrate that in your own web pages==将以下代码添加到您的网页中 Please check if the address, as given in the example \'\#\[ip\]\#\:\#\[port\]\#\' here is correct and replace it with more appropriate values if necessary==对于形如 '#[ip]#:#[port]#' 的地址, 请用具体值来替换 @@ -882,7 +882,7 @@ DHT Transfer==DHT转移 Proxy Use==Proxy使用 Local Crawling==本地crawl Global Crawling==全球crawl -Surrogate Import==导入副本 +Surrogate Import==导入备份 >Crawl Results Overview<==>Crawl结果一览< These are monitoring pages for the different indexing queues.==索引队列监视页面. YaCy knows 5 different ways to acquire web indexes. The details of these processes \(1-5\) are described within the submenu's listed==YaCy使用5种不同的方式来获取网络索引. 进程(1-5)的细节在子菜单中显示 @@ -890,7 +890,7 @@ above which also will show you a table with indexing results so far. The informa so you need to log-in with your administration password.==所以您最好设置一个有密码的管理员账户来查看. Case \(6\) is a monitor of the local receipt-generator, the opposed case of \(1\). It contains also an indexing result monitor but is not considered private==事件(6)与事件(1)相反, 显示本地回执. 它也包含索引结果, 但不属于隐私 since it shows crawl requests from other peers.==因为它含有来自其他peer的请求. -Case \(7\) occurs if surrogate files are imported==如果导入了副本, 则事件(7)发生. +Case \(7\) occurs if surrogate files are imported==如果备份被导入, 则事件(7)发生. The image above illustrates the data flow initiated by web index acquisition.==上图为网页索引的数据流. Some processes occur double to document the complex index migration structure.==一些进程可能出现双重文件索引结构混合的情况. \(1\) Results of Remote Crawl Receipts==(1) 远程crawl回执结果 @@ -926,8 +926,8 @@ This is the 'mirror'-case of process \(1\).==这是进程(1)的'镜像'实例. Use Case: This list may fill if you check the 'Accept remote crawling requests'-flag on the 'Index Crate' page==用法:如果您选中了'索引创建'页面的'接受远端crawl请求', 则会在此列表中显示. The stack is empty.==栈为空. Statistics about \#\[domains\]\# domains in this stack:==此栈显示有关 #[domains]# 域的数据: -\(7\) Results from surrogates import==\(7\) 副本导入结果 -These records had been imported from surrogate files in DATA/SURROGATES/in==这些记录从 DATA/SURROGATES/in 中的副本文件中导入 +\(7\) Results from surrogates import==\(7\) 备份导入结果 +These records had been imported from surrogate files in DATA/SURROGATES/in==这些记录从 DATA/SURROGATES/in 中的备份文件中导入 Use Case: place files with dublin core metadata content into DATA/SURROGATES/in or use an index import method==用法:将包含Dublin核心元数据的文件放在 DATA/SURROGATES/in 中, 或者使用索引导入方式 \(i.e. MediaWiki import, OAI-PMH retrieval\)==(例如 MediaWiki 导入, OAI-PMH 导入\) #Domain==Domain @@ -1442,8 +1442,8 @@ If you read from an imported database, here are some hints to get around problem before importing large database dumps, set==在导入尺寸较大的数据库时, in phpmyadmin/config.inc.php and place your dump file in /tmp \(Otherwise it is not possible to upload files larger than 2MB\)==设置phpmyadmin/config.inc.php的内容, 并将您的数据库文件放到 /tmp 目录下(否则不能上传大于2MB的文件) deselect the partial import flag==取消部分导入 -When an export is started, surrogate files are generated into DATA/SURROGATE/in which are automatically fetched by an indexer thread.==导出过程开始时, 在 DATA/SURROGATE/in 目录下自动生成副本文件, 并且会被索引器自动抓取. -All indexed surrogate files are then moved to DATA/SURROGATE/out and can be re-cycled when an index is deleted.==所有被索引的副本文件都在 DATA/SURROGATE/out 目录下, 并被索引器循环利用. +When an export is started, surrogate files are generated into DATA/SURROGATE/in which are automatically fetched by an indexer thread.==导出过程开始时, 在 DATA/SURROGATE/in 目录下自动生成备份文件, 并且会被索引器自动抓取. +All indexed surrogate files are then moved to DATA/SURROGATE/out and can be re-cycled when an index is deleted.==所有被索引的备份文件都在 DATA/SURROGATE/out 目录下, 并被索引器循环利用. The URL stub==URL根域名 like http://forum.yacy-websuche.de==比如链接 http://forum.yacy-websuche.de this must be the path right in front of '\/viewtopic.php\?'==必须在'\/viewtopic.php\?'前面 @@ -1462,13 +1462,13 @@ User==数据库 that can access the database==用户名 Password==给定用户名的 for the account of that user given above==访问密码 -Posts per file==导出副本中 -in exported surrogates==每个文件拥有的最大条目 +Posts per file==导出备份中 +in exported surrogates==每个文件拥有的最多帖子数 Check database connection==检查数据库连接 -Export Content to Surrogates==导出到副本 +Export Content to Surrogates==导出到备份 Import a database dump==导入数据库 Import Dump==导入 -Posts in database==数据库中条目 +Posts in database==数据库中帖子 first entry==第一个 last entry==最后一个 Info failed:==错误信息: @@ -1480,92 +1480,92 @@ Import failed:==导入失败: #File: DictionaryLoader_p.html #--------------------------- -Dictionary Loader==Wörterbuch Download -YaCy can use external libraries to enable or enhance some functions. These libraries are not==YaCy kann externe Bibliotheken zum Erweitern oder Aktivieren bestimmter Funktionen verwenden. Diese Bibliotheken sind nicht -included in the main release of YaCy because they would increase the application file too much.==im Standard Release von YaCy enthalten weil diese die Anwendungsdatei zu stark vergrößern würden. -You can download additional files here.==Sie können zusätzliche Dateien hier herunterladen. ->Geolocalization<==>Geolokalisierung< -Geolocalization will enable YaCy to present locations from OpenStreetMap according to given search words.==Geolokalisierung erlaubt es YaCy bestimmte Orte auf OpenStreetMap zu bestimmten Suchbegriffen zu präsentieren. ->GeoNames<==>Geografische Namen< -With this file it is possible to find cities with a population > 1000 all over the world.==Mit dieser Datei ist es möglich Städte überall auf der Erde zu finden die mehr als 1000 Einwohner haben. ->Download from<==>Download von< ->Storage location<==>Speicherort< +Dictionary Loader==功能扩展 +YaCy can use external libraries to enable or enhance some functions. These libraries are not==您可以使用外部插件来增强一些功能. 考虑到程序大小问题, +included in the main release of YaCy because they would increase the application file too much.==这些插件并未被包含在主程序中. +You can download additional files here.==您可以在这下载扩展文件. +>Geolocalization<==>位置定位< +Geolocalization will enable YaCy to present locations from OpenStreetMap according to given search words.==根据关键字, YaCy能从OpenStreetMap获得的位置信息. +>GeoNames<==>位置< +With this file it is possible to find cities with a population > 1000 all over the world.==使用此文件能够找到全世界平均人口大于1000的城市. +>Download from<==>下载来源< +>Storage location<==>存储位置< #>Status<==>Status< ->not loaded<==>nicht geladen< ->loaded<==>geladen< -:deactivated==:deaktiviert ->Action<==>Aktion< ->Result<==>Resultat< -"Load"=="Laden" -"Deactivate"=="Deaktivieren" -"Remove"=="Entfernen" -"Activate"=="Aktivieren" ->loaded and activated dictionary file<==>Wörterbuch Datei geladen und aktiviert< ->loading of dictionary file failed: \#\[error\]\#<==>Laden der Wörterbuch Datei ist fehlgeschlagen: #[error]#< ->deactivated and removed dictionary file<==>Wörterbuch Datei deaktiviert und entfernt< ->cannot remove dictionary file: \#\[error\]\#<==>Wörterbuch Datei kann nicht entfernt werden: #[error]#< ->deactivated dictionary file<==>Wörterbuch Datei deaktiviert< ->cannot deactivate dictionary file: \#\[error\]\#<==>Wörterbuch Datei kann nicht deaktiviert werden: #[error]#< ->activated dictionary file<==>Wörterbuch Datei aktiviert< ->cannot activate dictionary file: \#\[error\]\#<==>Wörterbuch Datei kann nicht aktiviert werden: #[error]#< +>not loaded<==>为加载< +>loaded<==>已加载< +:deactivated==:已停用 +>Action<==>动作< +>Result<==>结果< +"Load"=="加载" +"Deactivate"=="停用" +"Remove"=="卸载" +"Activate"=="启用" +>loaded and activated dictionary file<==>加载并启用插件< +>loading of dictionary file failed: \#\[error\]\#<==>读取插件失败: #[error]#< +>deactivated and removed dictionary file<==>停用并卸载插件< +>cannot remove dictionary file: \#\[error\]\#<==>卸载插件失败: #[error]#< +>deactivated dictionary file<==>停用插件< +>cannot deactivate dictionary file: \#\[error\]\#<==>停用插件失败: #[error]#< +>activated dictionary file<==>已启用插件< +>cannot activate dictionary file: \#\[error\]\#<==>启用插件失败: #[error]#< #>OpenGeoDB<==>OpenGeoDB< ->With this file it is possible to find locations in Germany using the location \(city\) name, a zip code, a car sign or a telephone pre-dial number.<==>Mit dieser Datei ist es möglich, Orte in Deutschland anhand des (Stadt)Namens, der Postleitzahl, eines Autokennzeichens oder einer Telefonvorwahl zu finden.< +>With this file it is possible to find locations in Germany using the location \(city\) name, a zip code, a car sign or a telephone pre-dial number.<==>使用此插件, 则能通过查询城市名, 邮编, 车牌号或者电话区号得到德国任何地点的位置信息.< #----------------------------- #File: IndexCreateWWWGlobalQueue_p.html #--------------------------- -Global Crawl Queue==Globaler Crawl-Puffer -This queue stores the urls that shall be sent to other peers to perform a remote crawl.==Dieser Puffer enthält URLs, die an andere Peers gesendet werden sollen, um einen Remote Crawl durchzuführen. -If there is no peer for remote crawling available, the links are crawled locally.==Wenn kein Peer zum Remote Crawl vorhanden ist, werden die Links lokal gecrawlt. -The global crawler queue is empty==Der globale Crawler-Puffer ist leer. -"clear global crawl queue"=="Lösche globalen Crawler-Puffer" -There are \#\[num\]\# entries in the global crawler queue. Showing \#\[show-num\]\# most recent entries.==Es befinden sich #[num]# Einträge in dem globalen Crawler-Puffer. Gezeigt werden die #[show-num]# neuesten Einträge. -Show last==Zeige die letzten - entries.== Einträge. -Initiator==Initiator -Profile==Profil -Depth==Tiefe -Modified Date==Änderungsdatum -Anchor Name==Anker Name +Global Crawl Queue==全球crawl队列 +This queue stores the urls that shall be sent to other peers to perform a remote crawl.==此队列存储着需要发送到其他peer进行crawl的链接. +If there is no peer for remote crawling available, the links are crawled locally.==如果远端无可用crawl, 则此队列对本地有效. +The global crawler queue is empty==全球crawl队列为空. +"clear global crawl queue"=="清空全球crawl队列" +There are \#\[num\]\# entries in the global crawler queue. Showing \#\[show-num\]\# most recent entries.==全球crawler队列中有 #[num]# 个条目. 显示最近的 #[show-num]# 个. +Show last==显示最近 + entries.== 个. +Initiator==发起者 +Profile==资料 +Depth==深度 +Modified Date==修改日期 +Anchor Name==anchor名 #URL==URL #----------------------------- #File: IndexCreateWWWLocalQueue_p.html #--------------------------- -Local Crawl Queue==Lokaler Crawl-Puffer -This queue stores the urls that shall be crawled localy by this peer.==Dieser Puffer enthält URLs, die von diesem Peer lokal gecrawlt werden sollen. -It may also contain urls that are computed by the proxy-prefetch.==Sie enthält auch URLs, die vom Proxy durch tieferes Indexieren bereitgestellt werden. -The local crawler queue is empty==Der lokale Crawler-Puffer ist leer. -There are \#\[num\]\# entries in the local crawler queue. Showing \#\[show-num\]\# most recent entries.==Es befinden sich #[num]# Einträge in dem lokalen Crawler-Puffer. Gezeigt werden die #[show-num]# neuesten Einträge. -Show last==Zeige die letzten - entries.== Einträge. -Initiator==Initiator -Profile==Profil -Depth==Tiefe -Modified Date==Änderungsdatum -Anchor Name==Anker Name +Local Crawl Queue==本地crawl队列 +This queue stores the urls that shall be crawled localy by this peer.==此队列存储着本地peer要crawl的队列. +It may also contain urls that are computed by the proxy-prefetch.==此队列中也包含通过代理预取的链接. +The local crawler queue is empty==本地crawl队列为空. +There are \#\[num\]\# entries in the local crawler queue. Showing \#\[show-num\]\# most recent entries.==本地crawl队列中有 #[num]# 个条目. 显示最近的 #[show-num]# 个. +Show last==显示最近 + entries.== 个. +Initiator==发起者 +Profile==资料 +Depth==深度 +Modified Date==修改日期 +Anchor Name==anchor名 URL==URL \[Delete\]==[删除] -Delete Entries:==Lösche Einträge: +Delete Entries:==已删除条目: "Delete"=="删除" -This may take a quite long time.==Dies wird vielleicht einige Zeit dauern. +This may take a quite long time.==这会花费很长一段时间. #----------------------------- #File: IndexCreateWWWRemoteQueue_p.html #--------------------------- -Remote Crawl Queue==Remote Crawl Puffer -This queue stores the urls that other peers sent to you in order to perform a remote crawl for them.==Dieser Puffer enthält die URLS, die Ihnen andere Peers zugeschickt haben, um für diese einen Remote Crawl durchzuführen. -The remote crawler queue is empty==Der Remote Crawler-Puffer ist leer -"clear remote crawl queue"=="leere Remote Crawl Puffer" -There are \#\[num\]\# entries in the remote crawler queue.==Es befinden sich #[num]# Einträge in dem Remote Crawler-Puffer. -Showing \#\[show-num\]\# most recent entries.==Gezeigt werden die #[show-num]# neuesten Einträge. -Show last==Zeige die letzten - entries.== Einträge. -Initiator==Initiator -Profile==Profil -Depth==Tiefe -Modified Date==Änderungsdatum -Anchor Name==Anker Name +Remote Crawl Queue==远端Crawl队列 +This queue stores the urls that other peers sent to you in order to perform a remote crawl for them.==此队列存储着其他peer发送给您从而为他们进行crawl的链接. +The remote crawler queue is empty==远端crawl队列为空 +"clear remote crawl queue"=="清空远端crawl队列" +There are \#\[num\]\# entries in the remote crawler queue.==远端crawl队列中有 #[num]# 个条目. +Showing \#\[show-num\]\# most recent entries.==显示最近的 #[show-num]# 个. +Show last==显示最近 + entries.== 个. +Initiator==发起者 +Profile==资料 +Depth==深度 +Modified Date==修改日期 +Anchor Name==anchor名 URL==URL Delete==删除 #----------------------------- @@ -1574,87 +1574,87 @@ Delete==删除 #--------------------------- YaCy \'\#\[clientname\]\#\': Index Import==YaCy '#[clientname]#': Index Import #Crawling Queue Import==Crawling Puffer Import -Index DB Import==Index Datenbank Import -The local index currently consists of \(at least\) \#\[wcount\]\# reverse word indexes and \#\[ucount\]\# URL references.==Der lokale Index besteht zur Zeit aus (mindestens) #[wcount]# Wörtern und #[ucount]# URLs. -Import Job with the same path already started.==Ein Import mit dem selben Pfad ist bereits gestartet. -Starting new Job==Neuen Import starten -Import Type:==Import-Typ: -Cache Size==Cachegröße -Usage Examples==Benutzungs-
beispiele -"Path to the PLASMADB directory of the foreign peer"=="Pfad zum PLASMADB Verzeichnis des fremden Peer" -Import Path:==Import-Pfad: -"Start Import"=="Import starten" -Attention:==Achtung: -Always do a backup of your source and destination database before starting to use this import function.==Machen Sie immer ein Backup von Ihrer Quell- und Zieldatenbank, bevor Sie die Import-Funktion nutzen. -Currently running jobs==Gerade laufende Aufgaben -Job Type==Job-Typ ->Path==>Pfad +Index DB Import==导入索引数据 +The local index currently consists of \(at least\) \#\[wcount\]\# reverse word indexes and \#\[ucount\]\# URL references.==本地索引当前至少有 #[wcount]# 个关键字索引和 #[ucount]# 个URL关联. +Import Job with the same path already started.==含有相同路径的导入任务已存在. +Starting new Job==开始新任务 +Import Type:==导入类型: +Cache Size==缓存大小 +Usage Examples==使用
举例 +"Path to the PLASMADB directory of the foreign peer"=="其他peer的PLASMADB目录路径" +Import Path:==导入失败: +"Start Import"=="开始导入" +Attention:==注意: +Always do a backup of your source and destination database before starting to use this import function.==在使用此导入功能之前, 一定要备份您的源数据库和目的数据库. +Currently running jobs==当前运行任务 +Job Type==任务类型 +>Path==>路径 Status==Status -Elapsed
Time==Verstrichene
Zeit -Time
Left==verbl.
Zeit -Abort Import==Import abbrechen -Pause Import==Import pausieren -Finished::Running::Paused==Fertig::Laufend::Pausiert -"Abort"=="Abbrechen" +Elapsed
Time==已用
时间 +Time
Left==剩余
时间 +Abort Import==停止 +Pause Import==暂停 +Finished::Running::Paused==已完成::正在运行::已暂停 +"Abort"=="停止" #"Pause"=="Pause" -"Continue"=="Fortsetzen" -Finished jobs==Fertige Importierungen -"Clear List"=="Liste löschen" -Last Refresh:==Letzte Aktualisierung: -Example Path:==Beispielpfad: -Requirements:==Voraussetzungen: -You need to have at least the following directories and files in this path:==Sie müssen mindestens die folgenden Dateien und Ordner in diesem Pfad haben: ->Type==>Typ ->Writeable==>Schreibrechte ->Description==>Beschreibung ->File==>Datei ->Directory==>Verzeichnis ->Yes<==>Ja< ->No<==>Nein< -The LoadedURL Database containing all loaded and indexed URLs==Die 'geladene URLs'-Datenbank, enthält alle geladenen und indexierten URLs -The assortment directory containing parts of the word index.==Das Assortment-Verzeichnis, enthält Teile des Wort-Index. -The words directory containing parts of the word index.==Das Wort-Verzeichnis, enthält Teile des Wort-Index. -The assortment file that should be imported.==Die Assortment-Datei die importiert werden soll. -The assortment file must have the postfix==Die Assortment-Datei muss den Suffix -.db".==.db" haben. -If you would like to import an assortment file from the PLASMADB\\ACLUSTER\\ABKP== Wenn Sie eine Assortment-Datei aus PLASMADB\\ACLUSTER\\ABKP importieren wollen, -you have to rename it first.==müssen Sie sie zuerst umbenennen. ->Notes:==>Anmerkung: -Please note that the imported words are useless if the destination peer doesn't know==Bitte bedenken Sie, dass die importierten Wörter nutzlos sind, wenn der Ziel-Peer nicht weiß, -the URLs the imported words belongs to.==zu welchen URLs sie gehören. -Crawling Queue Import:==Crawler-Puffer-Import: -Contains data about the crawljob an URL belongs to==Enthält Daten über den Crawljob, zu dem eine URL gehört -The crawling queue==Der Crawler-Puffer -Various stack files that belong to the crawling queue==Verschiedene Stack-Dateien, die zum Crawler-Puffer gehören +"Continue"=="继续" +Finished jobs==已完成任务 +"Clear List"=="清空列表" +Last Refresh:==最近刷新: +Example Path:==示例路径: +Requirements:==要求: +You need to have at least the following directories and files in this path:==此路经中至少包含以下目录和文件: +>Type==>类型 +>Writeable==>可写 +>Description==>描述 +>File==>文件 +>Directory==>目录 +>Yes<==>是< +>No<==>否< +The LoadedURL Database containing all loaded and indexed URLs==已加载URL数据库中含有所有已加载并被索引的URL +The assortment directory containing parts of the word index.==分类目录中含有部分关键字索引. +The words directory containing parts of the word index.==关键字目录中含有部分关键字索引. +The assortment file that should be imported.==需要导入分类文件. +The assortment file must have the postfix==分类文件一定要有后缀名 +.db".==.db". +If you would like to import an assortment file from the PLASMADB\\ACLUSTER\\ABKP==如果您想从 PLASMADB\\ACLUSTER\\ABKP 中导入分类文件, +you have to rename it first.==则须先重命名. +>Notes:==>注意: +Please note that the imported words are useless if the destination peer doesn't know==如果目的peer不知道导入的关键字属于那些链接, +the URLs the imported words belongs to.==则导入的关键字无效. +Crawling Queue Import:==导入crawl队列: +Contains data about the crawljob an URL belongs to==含有crawl任务链接的数据 +The crawling queue==crawl队列 +Various stack files that belong to the crawling queue==属于crawl队列的各种栈文件 #----------------------------- #File: IndexImportMediawiki_p.html #--------------------------- #MediaWiki Dump Import==MediaWiki Dump Import -No import thread is running, you can start a new thread here==Sie können hier einen neuen Thread starten, da aktuell kein Import Thread läuft -Bad input data:==Ungültige Eingabedaten: -MediaWiki Dump File Selection: select a \'bz2\' file==MediaWiki Dump Datei Auswahl: Wähle eine 'bz2' Datei aus -You can import MediaWiki dumps here. An example is the file==Hier können Sie MediaWiki Dumps importieren. Als Beispiel dient die Datei -Dumps must be in XML format and may be compressed in gz or bz2. Place the file in the YaCy folder or in one of its sub-folders.==Dumps müssen im XML Format vorliegen und bz2 komprimiert sein. Legen Sie die Datei im YaCy-Verzeichnis oder einem Unterordner ab. -"Import MediaWiki Dump"=="Importiere MediaWiki Dump" -When the import is started, the following happens:==Wenn der Import gestartet wird passiert Folgendes: -The dump is extracted on the fly and wiki entries are translated into Dublin Core data format. The output looks like this:==Der Dump wird zur Laufzeit extrahiert und die Wiki Einträge werden in das Dublin Core Datenformat übersetzt. Die Ausgabe schaut wie folgt aus: -Each 10000 wiki records are combined in one output file which is written to /DATA/SURROGATES/in into a temporary file.==Je 10000 Wiki Einträge werden zusammen in eine Ausgabedatei geschrieben und in /DATA/SURROGATES/in temporär gespeichert. -When each of the generated output file is finished, it is renamed to a .xml file==Wenn jede der generierten Ausgabedateien abgearbeitet wurde wird diese in eine .xml Datei umbenannt. -Each time a xml surrogate file appears in /DATA/SURROGATES/in, the YaCy indexer fetches the file and indexes the record entries.==Immer wenn eine xml Surrogat Datei in /DATA/SURROGATES/in erscheint, holt der YaCy Indexer diese Datei und indexiert die enthaltenen Datensätze. -When a surrogate file is finished with indexing, it is moved to /DATA/SURROGATES/out==Wenn eine Surrogat Datei vollständig indexiert wurde, wird sie nach /DATA/SURROGATES/out verschoben -You can recycle processed surrogate files by moving them from /DATA/SURROGATES/out to /DATA/SURROGATES/in==Sie können schon abgearbeitete Surrogat Dateien durch Verschieben von /DATA/SURROGATES/out nach /DATA/SURROGATES/in recyclen. -Import Process==Import Prozess +No import thread is running, you can start a new thread here==当前无运行导入任务, 不过您可以在这开始 +Bad input data:==损坏数据: +MediaWiki Dump File Selection: select a \'bz2\' file==MediaWiki 备份文件: 选择一个 'bz2' 文件 +You can import MediaWiki dumps here. An example is the file==您可以在这导入MediaWiki副本. 示例 +Dumps must be in XML format and may be compressed in gz or bz2. Place the file in the YaCy folder or in one of its sub-folders.==副本文件必须是 XML 格式并用 bz2 压缩的. 将其放进YaCy目录或其子目录中. +"Import MediaWiki Dump"=="导入MediaWiki备份" +When the import is started, the following happens:==:开始导入时, 会进行以下工作 +The dump is extracted on the fly and wiki entries are translated into Dublin Core data format. The output looks like this:==备份文件即时被解压, 并被译为Dublin核心元数据格式: +Each 10000 wiki records are combined in one output file which is written to /DATA/SURROGATES/in into a temporary file.==每个输出文件都含有10000个wiki记录, 并都被保存在 /DATA/SURROGATES/in 的临时目录中. +When each of the generated output file is finished, it is renamed to a .xml file==生成的输出文件都以 .xml结尾 +Each time a xml surrogate file appears in /DATA/SURROGATES/in, the YaCy indexer fetches the file and indexes the record entries.==只要 /DATA/SURROGATES/in 中含有 xml文件, YaCy索引器就会读取它们并为其中的条目制作索引. +When a surrogate file is finished with indexing, it is moved to /DATA/SURROGATES/out==当索引完成时, xml文件会被移动到 /DATA/SURROGATES/out +You can recycle processed surrogate files by moving them from /DATA/SURROGATES/out to /DATA/SURROGATES/in==您可以将文件从/DATA/SURROGATES/out 移动到 /DATA/SURROGATES/in 以重复索引. +Import Process==导入进程 #Thread:==Thread: #Dump:==Dump: -Processed:==Bearbeitet: -Wiki Entries==Wiki Einträge -Speed:==Geschwindigkeit: -articles per second<==Artikel pro Sekunde< -Running Time:==Laufzeit: -hours,==Stunden, -minutes<==Minuten< -Remaining Time:==Verbleibende Zeit: +Processed:==已完成: +Wiki Entries==Wiki条目 +Speed:==速度: +articles per second<==个文章每秒< +Running Time:==运行时间: +hours,==小时, +minutes<==分< +Remaining Time:==剩余时间: #hours,==Stunden, #minutes<==Minuten< #----------------------------- @@ -1662,307 +1662,307 @@ Remaining Time:==Verbleibende Zeit: #File: IndexImportOAIPMH_p.html #--------------------------- #OAI-PMH Import==OAI-PMH Import -Results from the import can be monitored in the indexing results for surrogates==Ergebnisse aus dem Import finden Sie auf der Seite Ergebnisse aus dem Surrogat Import -Single request import==Einfacher Anfrage Import -This will submit only a single request as given here to a OAI-PMH server and imports records into the index==Mit dieser Methode wird nur eine einzelne Abfrage an einen OAI-PMH Server geschickt und die Datensätze in den Index aufgenommen -"Import OAI-PMH source"=="Importiere OAI-PMH Quelle" -Source:==Quelle: -Processed:==Bearbeitet: -records<==Datensätze< +Results from the import can be monitored in the indexing results for surrogates==导入结果监视 +Single request import==单个导入请求 +This will submit only a single request as given here to a OAI-PMH server and imports records into the index==向OAI-PMH服务器提交如下导入请求, 并将返回记录导入索引 +"Import OAI-PMH source"=="导入OAI-PMH源" +Source:==源: +Processed:==已处理: +records<==返回记录< #ResumptionToken:==ResumptionToken: -Import failed:==Import fehlgeschlagen: -Import all Records from a server==Importiere alle Datensätze von einem Server -Import all records that follow according to resumption elements into index==Importiere alle folgenden Datensätze die Wiederaufnahme Elementen entsprechen in den Index -"import this source"=="Importiere diese Quelle" -::or ==::oder  -"import from a list"=="Importiere von einer Liste" -Import started!==Import gestartet! -Bad input data:==Ungültige Eingabedaten: +Import failed:==导入失败: +Import all Records from a server==从服务器导入全部记录 +Import all records that follow according to resumption elements into index==根据恢复元素导入服务器记录 +"import this source"=="导入此源" +::or ==::o或  +"import from a list"=="从列表导入" +Import started!==已开始导入! +Bad input data:==损坏数据: #----------------------------- #File: IndexImportOAIPMHList_p.html #--------------------------- -List of \#\[num\]\# OAI-PMH Servers==Liste von #[num]# OAI-PMH Servern -"Load Selected Sources"=="Lade ausgewählte Quellen" -OAI-PMH source import list==OAI-PMH Quellen Import Liste +List of \#\[num\]\# OAI-PMH Servers==#[num]# 个OAI-PMH服务器 +"Load Selected Sources"=="加载选中源" +OAI-PMH source import list==导入OAI-PMH源 #OAI Source List==OAI Quellen Liste ->Source<==>Quelle< -Import List==Importierte Liste +>Source<==>源< +Import List==导入列表 #>Thread<==>Thread< #>Source<==>Quelle< ->Processed
Chunks<==>Bearbeitete
Datenblöcke< ->Imported
Records<==>Importierte
Datensätze< ->Speed
\(records/second\)==>Geschwindigkeit
==(Datensätze/Sekunde) +>Processed
Chunks<==>已处理
块< +>Imported
Records<==>已导入
记录< +>Speed
\(records/second\)==>速度
==(记录/每秒) #----------------------------- #File: Load_MediawikiWiki.html #--------------------------- -YaCy \'\#\[clientname\]\#\': Configuration of a Wiki Search==YaCy '#[clientname]#': Konfiguration einer Wiki Suche +YaCy \'\#\[clientname\]\#\': Configuration of a Wiki Search==YaCy '#[clientname]#': Wiki搜索配置 #Integration in MediaWiki==Integration in MediaWiki -It is possible to insert wiki pages into the YaCy index using a web crawl on that pages.==Es ist möglich Wiki Seiten in den YaCy Index aufzunehmen, indem man diese Seiten crawlen läßt. -This guide helps you to crawl your wiki and to insert a search window in your wiki pages.==Diese Anleitung hilft Ihnen, Ihr Wiki zu crawlen und ein Suchfeld in die Wiki Seiten einzubauen. -Retrieval of Wiki Pages==Abrufen der Wiki Seiten -The following form is a simplified crawl start that uses the proper values for a wiki crawl.==Das folgende Eingabeformular ist eine vereinfachte Crawl Startseite die passende Werte für eine Wiki Suche voreingestellt hat. -Just insert the front page URL of your wiki.==Fügen Sie einfach die Start URL Ihres Wikis ein. -After you started the crawl you may want to get back==Nachdem Sie den Crawl gestartet haben sollten Sie nochmals zurück -to this page to read the integration hints below.==auf diese Seite gehen, um die Integrationshinweise weiter unten zu lesen. -URL of the wiki main page==URL der Wiki Hauptseite -This is a crawl start point==Das ist der Ausgangspunkt des Crawls -"Get content of Wiki: crawl wiki pages"=="Hole den Inhalt des Wiki: Crawle die Wiki Seiten" -Inserting a Search Window to MediaWiki==Einfügen eines Suchfeldes in ein MediaWiki -To integrate a search window into a MediaWiki, you must insert some code into the wiki template.==Um ein Suchfeld in das MediWiki einzufügen, müssen Sie einigen Code in Ihr Wiki Template einfügen. -There are several templates that can be used for MediaWiki, but in this guide we consider that==Es gibt einige Templates die für ein MediaWiki verwendet werden können. Aber in dieser Anleitung setzen wir voraus, dass -you are using the default template, \'MonoBook.php\':==Sie das Standard Template einsetzen, 'MonoBook.php': -open skins/MonoBook.php==Öffnen Sie skins/MonoBook.php -find the line where the default search window is displayed, there are the following statements:==Finden Sie die Zeile in der die Standard Suchmaschine angezeigt wird, erkennbar an folgenden Anweisungen: -Remove that code or set it in comments using \'<!--\' and \'-->\'==Entfernen Sie diesen Code oder setzen sie ihn zwischen Kommentar Klammern mit '<!--' und '-->' -Insert the following code:==Fügen Sie folgenden Code ein: -Search with YaCy in this Wiki:==Mit YaCy in diesem Wiki suchen: -value=\"Search\"==value="Suche" -Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==Überprüfen Sie alle in diesem Codeschnipsel vorkommenden statischen IP Adressen und ersetzen Sie diese mit Ihrer eigenen IP oder dem eigenen Hostnamen. -You may want to change the default text elements in the code snippet==Sie können auch die Standard Textelemente in dem Code Ausschnitt gegen eigene Texte austauschen. -To see all options for the search widget, look at the more generic description of search widgets at==Um alle Optionen für das Suchfeld zu sehen, schauen Sie sich die generische Beschreibung des Such Widgets auf -the
configuration for live search.==der Seite Integration eines Suchfelds für Live Suche an. +It is possible to insert wiki pages into the YaCy index using a web crawl on that pages.==使用网页crawl, 能将wiki网页添加到YaCy主页中. +This guide helps you to crawl your wiki and to insert a search window in your wiki pages.==此向导帮助您crawl您的wiki网页, 在其中添加一个搜索框. +Retrieval of Wiki Pages==接收Wiki网页 +The following form is a simplified crawl start that uses the proper values for a wiki crawl.==下栏是使用某一值的Wiki crawl起始点. +Just insert the front page URL of your wiki.==请填入Wiki的URL. +After you started the crawl you may want to get back==crawl开始后, +to this page to read the integration hints below.==您可能需要返回此页面阅读以下提示. +URL of the wiki main page==Wiki主页URL +This is a crawl start point==将作为crawl起始点 +"Get content of Wiki: crawl wiki pages"=="获取Wiki内容: crawl Wiki页面" +Inserting a Search Window to MediaWiki==在MediaWiki中添加搜索框 +To integrate a search window into a MediaWiki, you must insert some code into the wiki template.==在wiki模板中添加以下代码以将搜索框集成到MediaWiki中. +There are several templates that can be used for MediaWiki, but in this guide we consider that==MediaWiki中有多种模板, +you are using the default template, \'MonoBook.php\':==在此我们使用默认模板 'MonoBook.php': +open skins/MonoBook.php==打开 skins/MonoBook.php +find the line where the default search window is displayed, there are the following statements:==找到搜索框显示部分代码, 如下: +Remove that code or set it in comments using \'<!--\' and \'-->\'==删除以上代码或者用 '<!--' '-->' 将其注释掉 +Insert the following code:==插入以下代码: +Search with YaCy in this Wiki:==在此Wiki中使用YaCy搜索: +value=\"Search\"==value="搜索" +Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==用您自己的IP或者主机名替代代码中给出的IP地址 +You may want to change the default text elements in the code snippet==您可以更改代码中的文本元素 +To see all options for the search widget, look at the more generic description of search widgets at==搜索框详细设置, 请参见 +the configuration for live search.==搜索栏集成: 即时搜索. #----------------------------- #File: Load_PHPBB3.html #--------------------------- -Configuration of a phpBB3 Search==Konfiguration einer phpBB3 Suche +Configuration of a phpBB3 Search==phpBB3搜索配置 #Integration in phpBB3==Integration in phpBB3 -It is possible to insert forum pages into the YaCy index using a database import of forum postings.==Es ist möglich die Forumsseiten mit YaCy zu indexieren, indem die Datenbank mit den Forumseinträgen importiert wird. -This guide helps you to insert a search window in your phpBB3 pages.==Diese Anleitung hilft Ihnen ein YaCy Suchfeld in Ihre phpBB3 Forenseiten einzubinden. -Retrieval of phpBB3 Forum Pages using a database export==Extraktion der phpBB3 Forenseiten durch Datenbank Export -Forum posting contain rich information about the topic, the time, the subject and the author.==Forenbeiträge enthalten reichaltige Informationen über das Thema, die Zeit, den Betreff und den Autor. -This information is in an bad annotated form in web pages delivered by the forum software.==Diese Information wird in einem schlecht kommentierten Format in Form von Webseiten ausgeliefert, die von der Forumssoftware erzeugt werden. -It is much better to retrieve the forum postings directly from the database.==Es ist viel besser die Forenbeiträge direkt aus der Datenbank zu extrahieren. -This will cause that YaCy is able to offer nice navigation features after searches.==Durch den Direktimport kann YaCy nach einer Suche auch hilfreiche Features zur Navigation anbieten. -YaCy has a phpBB3 extraction feature, please go to the phpBB3 content integration servlet for direct database imports.==YaCy kann bereits Daten aus einer phpBB3 Installation extrahieren. Auf der Seite Import aus phpBB3 Datenbanken finden Sie ein Servlet für den direkten Datenbank Import. -Retrieval of phpBB3 Forum Pages using a web crawl==Extraktion der phpBB3 Forenseiten durch Web Crawling -The following form is a simplified crawl start that uses the proper values for a phpbb3 forum crawl.==Das folgende Eingabeformular ist eine vereinfachte Crawl Startseite, die passende Werte für eine phpBB3 Forensuche voreingestellt hat. -Just insert the front page URL of your forum. After you started the crawl you may want to get back==Fügen Sie einfach die Startseite Ihres Forums ein. Nachdem Sie den Crawl gestartet haben sollten Sie zurück -to this page to read the integration hints below.==auf die Seite kommen, um die Integrationshinweise unten zu lesen. -URL of the phpBB3 forum main page==URL der Hauptseite des phpBB3 Forums -This is a crawl start point==Das ist der Ausgangspunkt für den Crawl -"Get content of phpBB3: crawl forum pages"=="Hole den phpBB3 Foreninhalt: Crawlen der Forenseiten" -Inserting a Search Window to phpBB3==Einfügen eines Suchfeldes in das phpBB3 Forum -To integrate a search window into phpBB3, you must insert some code into a forum template.==Um ein Suchfeld in Ihr phpBB3 Forum einzubauen, müssen Sie folgende Zeilen Code in das Forums Template einbauen. -There are several templates that can be used for phpBB3, but in this guide we consider that==Da es viele verschiedene Templates für phpBB3 Foren gibt, gehen wir in dieser Anleitung davon aus, dass -you are using the default template, \'prosilver\'==Sie das Standard Template 'prosilver' verwenden. -open styles/prosilver/template/overall_header.html==Öffnen Sie die Datei styles/prosilver/template/overall_header.html -find the line where the default search window is displayed, thats right behind the
\<div id=\"search-box\"\>
statement==Finden Sie die Zeile in der das Standard Suchfeld angezeigt wird, das sich gleich hinter der Anweisung
<div id="search-box">
befindet -Insert the following code right behind the div tag==Fügen Sie folgenden Code gleich nach dem div Tag ein -YaCy Forum Search==YaCy Foren Suche -;YaCy Search==;YaCy Suche -Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==Überprüfen Sie alle in diesem Codeschnipsel vorkommenden statischen IP Adressen und ersetzen Sie diese mit Ihrer eigenen IP oder dem eigenen Hostnamen. -You may want to change the default text elements in the code snippet==Sie können auch die Standard Textelemente in dem Code Ausschnitt gegen eigene Texte austauschen. -To see all options for the search widget, look at the more generic description of search widgets at==Um alle Optionen für das Suchfeld zu sehen, schauen Sie sich die generische Beschreibung des Such Widgets auf -the configuration for live search.==der Seite Integration eines Suchfelds für Live Suche an. +It is possible to insert forum pages into the YaCy index using a database import of forum postings.==导入含有论坛帖子的数据库, 能在YaCy主页显示论坛内容. +This guide helps you to insert a search window in your phpBB3 pages.==此向导能帮助您在您的phpBB3论坛页面中添加搜索框. +Retrieval of phpBB3 Forum Pages using a database export==phpBB3论坛页面需使用数据库导出 +Forum posting contain rich information about the topic, the time, the subject and the author.==论坛帖子中含有话题, 时间, 主题和作者等丰富信息. +This information is in an bad annotated form in web pages delivered by the forum software.==此类信息往往由论坛散播, 并且对于搜索引擎来说, 它们的标注很费解. +It is much better to retrieve the forum postings directly from the database.==所以, 直接从数据库中获取帖子内容效果更好. +This will cause that YaCy is able to offer nice navigation features after searches.==这会使得YaCy在每次搜索后提供较好引导特性. +YaCy has a phpBB3 extraction feature, please go to the phpBB3 content integration servlet for direct database imports.==YaCy能够解析phpBB3关键字, 参见 phpBB3内容集成 直接导入数据库方法. +Retrieval of phpBB3 Forum Pages using a web crawl==使用网页crawl接收phpBB3论坛页面 +The following form is a simplified crawl start that uses the proper values for a phpbb3 forum crawl.==下栏是使用某一值的phpBB3论坛crawl起始点. +Just insert the front page URL of your forum. After you started the crawl you may want to get back==将论坛首页填入表格. 开始crawl后, +to this page to read the integration hints below.==您可能需要返回此页面阅读以下提示. +URL of the phpBB3 forum main page==phpBB3论坛主页 +This is a crawl start point==这是crawl起始点 +"Get content of phpBB3: crawl forum pages"=="获取phpBB3内容: crawl论坛页面" +Inserting a Search Window to phpBB3==在phpBB3中添加搜索框 +To integrate a search window into phpBB3, you must insert some code into a forum template.==在论坛模板中添加以下代码以将搜索框集成到phpBB3中. +There are several templates that can be used for phpBB3, but in this guide we consider that==phpBB3中有多种模板, +you are using the default template, \'prosilver\'==在此我们使用默认模板 'prosilver'. +open styles/prosilver/template/overall_header.html==打开 styles/prosilver/template/overall_header.html +find the line where the default search window is displayed, thats right behind the
\<div id=\"search-box\"\>
statement==找到搜索框显示代码部分, 它们在
<div id="search-box">
下面 +Insert the following code right behind the div tag==在div标签后插入以下代码 +YaCy Forum Search==YaCy论坛搜索 +;YaCy Search==;YaCy搜索 +Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==用您自己的IP或者主机名替代代码中给出的IP地址 +You may want to change the default text elements in the code snippet==您可以更改代码中的文本元素 +To see all options for the search widget, look at the more generic description of search widgets at==搜索框详细设置, 请参见 +the configuration for live search.==der Seite 搜索栏集成: 即时搜索. #----------------------------- #File: Load_RSS_p.html #--------------------------- -Configuration of a RSS Search==Konfiguration einer RSS Suche -Loading of RSS Feeds<==Laden eines RSS Feeds< -RSS feeds can be loaded into the YaCy search index.==RSS Feeds können in den YaCy Suchindex geladen werden. -This does not load the rss file as such into the index but all the messages inside the RSS feeds as individual documents.==Dabei wird nicht die RSS Datei als solche in den Index geladen aber dafür alle Nachrichten innerhalb des RSS Feeds als einzelne Dokumente. -URL of the RSS feed==URL des RSS Feeds ->Preview<==>Vorschau< -"Show RSS Items"=="Zeige RSS Objekte" -Available after successful loading of rss feed in preview==Verfügbar nach dem erfolgreichen Laden des RSS Feeds in der Vorschau -"Add All Items to Index \(full content of url\)"=="Füge alle Objekte zum Index hinzu (Voller Inhalt der URL)" ->once<==>einmalig< ->load this feed once now<==>Lade diesen Feed nun einmalig< ->scheduled<==>geplant< ->repeat the feed loading every<==>Wiederhole das Laden dieses Feeds alle< ->minutes<==>Minuten< ->hours<==>Stunden< ->days<==>Tage< -> automatically.==> automatisch. ->List of Scheduled RSS Feed Load Targets<==>Liste aller geplanten RSS Feed Ziele< ->Title<==>Titel< +Configuration of a RSS Search==RSS搜索配置 +Loading of RSS Feeds<==正在读取RSS feed< +RSS feeds can be loaded into the YaCy search index.==YaCy能够读取RSS feed. +This does not load the rss file as such into the index but all the messages inside the RSS feeds as individual documents.==但不是直接读取RSS文件, 而是将RSS feed中的所有信息分别当作单独的文件来读取. +URL of the RSS feed==RSS feed链接 +>Preview<==>预览< +"Show RSS Items"=="显示RSS条目" +Available after successful loading of rss feed in preview==仅在读取rss feed后有效 +"Add All Items to Index \(full content of url\)"=="添加所有条目到索引中(URL中的全部内容)" +>once<==>立即< +>load this feed once now<==>立即读取此feed< +>scheduled<==>定时< +>repeat the feed loading every<==>读取此feed每隔< +>minutes<==>分钟< +>hours<==>小时< +>days<==>天< +> automatically.==>. +>List of Scheduled RSS Feed Load Targets<==>定时任务列表< +>Title<==>标题< #>URL/Referrer<==>URL/Referrer< ->Recording<==>Eintrag< ->Last Load<==>Zuletzt Geladen< ->Next Load<==>Nächster Ladevorgang< ->Last Count<==>Letzter Zähler< ->All Count<==>Gesamter Zähler< ->Avg. Update/Day<==>Durchschnittliche Updates pro Tag< -"Remove Selected Feeds from Scheduler"=="Entferne ausgewählte Feeds aus der geplanten Liste" -"Remove All Feeds from Scheduler"=="Entferne alle Feeds aus der geplanten Liste" ->Available RSS Feed List<==>Liste mit verfügbaren RSS Feeds< -"Remove Selected Feeds from Feed List"=="Entferne ausgewählte Feeds aus der Feed Liste" -"Remove All Feeds from Feed List"=="Entferne alle Feeds aus der Feed Liste" -"Add Selected Feeds to Scheduler"=="Füge ausgewählte Feeds zur geplanten Liste hinzu" ->new<==>Neu< ->enqueued<==>Geplant< ->indexed<==>Indexiert< ->RSS Feed of==>RSS Feed von ->Author<==>Autor< ->Description<==>Beschreibung< ->Language<==>Sprache< ->Date<==>Datum< ->Time-to-live<==>TTL (Zeit zu Leben)< ->Docs<==>Dokumente< +>Recording<==>正在记录< +>Last Load<==>上次读取< +>Next Load<==>将要读取< +>Last Count<==>目前计数< +>All Count<==>全部计数< +>Avg. Update/Day<==>每天平均更新次数< +"Remove Selected Feeds from Scheduler"=="删除选中feed" +"Remove All Feeds from Scheduler"=="删除所有feed" +>Available RSS Feed List<==>可用RSS feed列表< +"Remove Selected Feeds from Feed List"=="删除选中feed" +"Remove All Feeds from Feed List"=="删除所有feed" +"Add Selected Feeds to Scheduler"=="添加选中feed到定时任务" +>new<==>新< +>enqueued<==>已加入队列< +>indexed<==>已索引< +>RSS Feed of==>RSS Feed +>Author<==>作者< +>Description<==>描述< +>Language<==>语言< +>Date<==>日期< +>Time-to-live<==>TTL< +>Docs<==>文件< >State<==>< #>URL<==>URL< -"Add Selected Items to Index \(full content of url\)"=="Füge ausgewählte Objekte zum Index hinzu (Voller Inhalt der URL)" +"Add Selected Items to Index \(full content of url\)"=="添加选中条目到索引(URL中全部内容)" #----------------------------- #File: Messages_p.html #--------------------------- ->Messages==>Nachrichten -Date==Datum -From==Von -To==An ->Subject==>Betreff -Action==Aktion -From:==Von: -To:==An: -Date:==Datum: +>Messages==>短消息 +Date==日期 +From==来自 +To==发送至 +>Subject==>主题 +Action==动作 +From:==来自: +To:==发送至: +Date:==日期: #Subject:==Betreff: ->view==>anzeigen -reply==antworten ->delete==>löschen -Compose Message==Nachrichtenerstellung -Send message to peer==Sende eine Nachricht an Peer -"Compose"=="Erstellen" -Message:==Nachricht: -inbox==Posteingang +>view==>查看 +reply==回复 +>delete==>删除 +Compose Message==撰写短消息 +Send message to peer==发送消息至peer +"Compose"=="撰写" +Message:==短消息: +inbox==收件箱 #----------------------------- #File: MessageSend_p.html #--------------------------- -Send message==Nachricht versenden -You cannot send a message to==Sie können keine Nachricht schicken an -The peer does not respond. It was now removed from the peer-list.==Der Peer antwortet nicht. Er ist nicht mehr in der Peer-Liste vorhanden. -The peer ==Der Peer -is alive and responded:==ist online und antwortet: -You are allowed to send me a message==Es ist Ihnen erlaubt, mir eine Nachricht zu senden -kb and an==KB und einen -attachment ≤==Anhang ≤ -Your Message==Ihre Nachricht -Subject:==Betreff: -Text:==Inhalt: -"Enter"=="Nachricht senden" -"Preview"=="Vorschau" -You can use==Sie können hier -Wiki Code here.==Wiki Code benutzen. -Preview message==Nachricht Vorschau -The message has not been sent yet!==Die Nachricht wurde noch nicht gesendet! -The peer is alive but cannot respond. Sorry.==Der Peer ist nicht online und kann nicht antworten. Entschuldigung. -Your message has been sent. The target peer responded:==Ihre Nachricht wurde erfolgreich versandt. Der Ziel-Peer antwortet: -The target peer is alive but did not receive your message. Sorry.==Der Ziel-Peer ist online, hat aber Ihre Nachricht nicht erhalten. Entschuldigung. -Here is a copy of your message, so you can copy it to save it for further attempts:==Hier ist eine Kopie Ihrer Nachricht. Sie können diese kopieren, speichern und es später nochmal versuchen: -You cannot call this page directly. Instead, use a link on the Network page.==Sie können diese Seite nicht direkt aufrufen. Benutzen Sie stattdessen einen Link auf der Netzwerk Seite. +Send message==发送短消息 +You cannot send a message to==不能发送消息至 +The peer does not respond. It was now removed from the peer-list.==远端peer未响应, 将从peer列表中删除. +The peer ==peer +is alive and responded:==可用: +You are allowed to send me a message==您现在可以给我发送消息 +kb and an==kb和一个 +attachment ≤==附件 ≤ +Your Message==您的短消息 +Subject:==主题: +Text:==内容: +"Enter"=="发送" +"Preview"=="预览" +You can use==您可以在这使用 +Wiki Code here.==Wiki Code . +Preview message==预览消息 +The message has not been sent yet!==短消息未发送! +The peer is alive but cannot respond. Sorry.==peer属于活动状态但是无响应. +Your message has been sent. The target peer responded:==您的短消息已发送. 接收peer返回: +The target peer is alive but did not receive your message. Sorry.==抱歉, 接收peer属于活动状态但是没有接收到您的消息. +Here is a copy of your message, so you can copy it to save it for further attempts:==这是您的消息副本, 可被保存已备用: +You cannot call this page directly. Instead, use a link on the Network page.==您不能直接使用此页面. 请使用 网络 页面的对应功能. #----------------------------- #File: Network.html #--------------------------- -YaCy Search Network==YaCy Suche Netzwerk -YaCy Network<==YaCy Netzwerk< -The information that is presented on this page can also be retrieved as XML==Die Informationen auf dieser Seite können auch im XML Format abgerufen werden -Click the API icon to see the XML.==Klicken Sie auf das API Symbol, um das XML anzeigen zu lassen. -To see a list of all APIs, please visit the API wiki page.==Um eine Liste aller APIs zu sehen, besuchen Sie die API Seite im Wiki. -Network Overview==Netzwerkübersicht -Active Peers==Aktive Peers -Passive Peers==Passive Peers -Potential Peers==Potenzielle Peers -Active Peers in \'\#\[networkName\]\#\' Network==Aktive Peers im '#[networkName]#' Netzwerk -Passive Peers in \'\#\[networkName\]\#\' Network==Passive Peers im '#[networkName]#' Netzwerk -Potential Peers in \'\#\[networkName\]\#\' Network==Potentielle Peers im '#[networkName]#' Netzwerk -Manually contacting Peer==Kontaktiere Peer manuell -no remote \#\[peertype\]\# peer for this list known==Kein remote Peer #[peertype]# bekannt oder online. -Showing \#\[num\]\# entries from a total of \#\[total\]\# peers.==Gezeigt werden #[num]# Einträge von insgesamt #[total]# Peers. -send Message/
show Profile/
edit Wiki/
browse Blog==Sende Nachricht (m)/
Zeige Profil (p)/
Ändere Wiki (w)/
Durchsuche Blog (b) -Search for a peername \(RegExp allowed\)==Suche nach Peernamen (RegExp erlaubt) -"Search"=="Suche" -Name==Name -Address==Adresse +YaCy Search Network==YaCy搜索网络 +YaCy Network<==YaCy网络< +The information that is presented on this page can also be retrieved as XML==此页信息也可表示为XML +Click the API icon to see the XML.==点击API图标查看XML. +To see a list of all APIs, please visit the API wiki page.==查看所有API列表, 请访问API wiki. +Network Overview==网络一览 +Active Peers==活动peer +Passive Peers==被动peer +Potential Peers==潜在peer +Active Peers in \'\#\[networkName\]\#\' Network=='#[networkName]#'网络中的活动peer +Passive Peers in \'\#\[networkName\]\#\' Network=='#[networkName]#'网络中的被动peer +Potential Peers in \'\#\[networkName\]\#\' Network=='#[networkName]#'网络中的潜在peer +Manually contacting Peer==手动联系peer +no remote \#\[peertype\]\# peer for this list known==当前列表中无远端 #[peertype]# peer. +Showing \#\[num\]\# entries from a total of \#\[total\]\# peers.==显示全部 #[total]# 个peer中的 #[num]# 个. +send Message/
show Profile/
edit Wiki/
browse Blog==发送消息(m)/
显示资料(p)/
编辑wiki(w)/
浏览博客(b) +Search for a peername \(RegExp allowed\)==搜索peer名称(允许正则表达式) +"Search"=="搜索" +Name==名称 +Address==地址 Hash==Hash -Type==Typ -Release/
SVN==YaCy Version/
SVN -Last
Seen==Zuletzt
online -Location==Ort ->URLs for
Remote
Crawl<==>URLs zum
Remote
Crawlen< -Offset==Versatz -Send message to peer==Sende Nachricht an Peer -View profile of peer==Zeige Profil des Peers -Read and edit wiki on peer==Lese und ändere Wiki des Peers -Browse blog of peer==Durchsuche den Blog von Peer -#"Ranking Receive: no"=="Ranking Empfang: nein" -#"no ranking receive"=="kein Ranking Empfang" -#"Ranking Receive: yes"=="Ranking Empfang: ja" -#"Ranking receive enabled"=="Ranking Empfang aktiv" -"DHT Receive: yes"=="DHT Empfang: ja" -"DHT receive enabled"=="DHT Empfang aktiv" -"DHT Receive: no; \#\[peertags\]\#"=="DHT Empfang: nein; #[peertags]#" -"DHT Receive: no"=="DHT Empfang: nein" +Type==类型 +Release/
SVN==YaCy版本/
SVN +Last
Seen==最后
上线 +Location==位置 +>URLs for
Remote
Crawl<==>用于
远端
crawl的URL< +Offset==偏移 +Send message to peer==发送消息至peer +View profile of peer==查看peer资料 +Read and edit wiki on peer==查看并编辑wiki +Browse blog of peer==查看博客 +#"Ranking Receive: no"=="接收排名: 否" +#"no ranking receive"=="无接收排名" +#"Ranking Receive: yes"=="接收排名: 是" +#"Ranking receive enabled"=="打开排名接收" +"DHT Receive: yes"=="接收DHT: 是" +"DHT receive enabled"=="打开DHT接收" +"DHT Receive: no; \#\[peertags\]\#"=="接收DHT: 否; #[peertags]#" +"DHT Receive: no"=="接收DHT: 否" #no tags given==keine Tags angegeben -"no DHT receive"=="kein DHT Empfang" -"Accept Crawl: no"=="Akzeptiert Crawl: nein" -"no crawl"=="kein Crawl" -"Accept Crawl: yes"=="Akzeptiert Crawl: ja" -"crawl possible"=="Crawl möglich" -Contact: passive==Kontakt: passiv -Contact: direct==Kontakt: direkt -Seed download: possible==Seed Download: möglich -runtime:==Laufzeit: +"no DHT receive"=="无接收DHT" +"Accept Crawl: no"=="接受crawl: 否" +"no crawl"=="无crawl" +"Accept Crawl: yes"=="接受crawl: 是" +"crawl possible"=="可用crawl" +Contact: passive==通信: 被动 +Contact: direct==通信: 直接 +Seed download: possible==Seed下载: 可用 +runtime:==运行时间: #Peers==Peers #YaCy Cluster==YaCy Cluster ->Network<==>Netzwerk< +>Network<==>网络< #>Online Peers<==>Online Peers< ->Number of
Documents<==>Anzahl der
Dokumente< -Indexing Speed:==Indexiergeschwindigkeit: -Pages Per Minute \(PPM\)==Seiten pro Minute (PPM) -Query Frequency:==Abfragegeschwindigkeit: -Queries Per Hour \(QPH\)==Abfragen pro Stunde (QPH) ->Today<==>Heute< ->Last Week<==>Letzte Woche< ->Last Month<==>Letzter Monat< ->Now<==>Jetzt< ->Active<==>Aktiv< ->Passive<==>Passiv< ->Potential<==>Potentiell< ->This Peer<==>Dieser Peer< -URLs for
Remote Crawl==URLs zum
Remote Crawlen -"The YaCy Network"=="Das YaCy Netzwerk" - -Indexing
PPM==Indexier
PPM -\(public local\)==öffentlich lokal -\(remote\)==(extern) -Your Peer:==Ihr Peer: +>Number of
Documents<==>文件
数目< +Indexing Speed:==索引速度: +Pages Per Minute \(PPM\)==页面每分钟(PPM) +Query Frequency:==请求频率: +Queries Per Hour \(QPH\)==请求每分钟(QPH) +>Today<==>今天< +>Last Week<==>最近 一周< +>Last Month<==>最近 一月< +>Now<==>现在< +>Active<==>活动< +>Passive<==>被动< +>Potential<==>潜在< +>This Peer<==>此peer< +URLs for
Remote Crawl==用于远端
crawl的URL +"The YaCy Network"=="YaCy网络" + +Indexing
PPM==索引
PPM +\(public local\)==公共 本地 +\(remote\)==(远程) +Your Peer:==您的peer: #>Name<==>Name< #>Info<==>Info< #>Version<==>Version< #>UTC<==>UTC< ->Uptime<==>Laufzeit< +>Uptime<==>开机时间< #>Links<==>Links< #>RWIs<==>RWIs< -Sent
Words==Gesendete
Wörter -Sent
URLs==Gesendete
URLs -Received
Words==Empfangene
Wörter -Received
URLs==Empfangene
URLs -Known
Seeds==Bekannte
Seeds -Connects
per hour==Verbindungen
pro Stunde +Sent
Words==已发送
关键字 +Sent
URLs==已发送
URL +Received
Words==已接收
关键字 +Received
URLs==已接收
URL +Known
Seeds==已知
Seeds +Connects
per hour==联系
每小时 #Version==Version #Own/Other==Eigene/Andere ->dark green font<==>dunkelgrüne Schrift< -senior/principal peers==Senior/Principal Peers ->light green font<==>hellgrüne Schrift< ->passive peers<==>passive Peers< ->pink font<==>pinke Schrift< -junior peers==Junior Peers -red point==roter Punkt -this peer==Ihr Peer ->grey waves<==>graue Wellen< ->crawling activity<==>Crawl Aktivität< ->green radiation<==>grüne Strahlung< ->strong query activity<==>starke Abfrage Aktivität< ->red lines<==>rote Linien< ->DHT-out<==>DHT ausgehend< ->green lines<==>grüne Linien< ->DHT-in<==>DHT eingehend< +>dark green font<==>深绿色字< +senior/principal peers==高级/主要 peer +>light green font<==>浅绿色字< +>passive peers<==>主动peer< +>pink font<==>粉色字< +junior peers==次级peer +red point==红点 +this peer==此peer +>grey waves<==>灰色波浪< +>crawling activity<==>crawl活动< +>green radiation<==>绿色辐射圆< +>strong query activity<==>强烈请求活动< +>red lines<==>红线< +>DHT-out<==>DHT输出< +>green lines<==>绿线< +>DHT-in<==>DHT输入< #DHT-out==DHT-out #You are in online mode, but probably no internet resource is available.==Sie befinden sich im Online-Modus, aber zur Zeit besteht keine Internetverbindung.You are in online mode, but probably no internet resource is available. #Please check your internet connection.==Bitte überprüfen Sie Ihre Internetverbindung. @@ -1972,83 +1972,83 @@ this peer==Ihr Peer #File: News.html #--------------------------- -Overview==Überblick -Incoming News==eingehende News -Processed News==gelesene News -Outgoing News==ausgehende News -Published News==veröffentlichte News -This is the YaCyNews system \(currently under testing\).==Dies ist das YaCy News-System (zur Zeit noch im Test). -The news service is controlled by several entry points:==Dieser News Service wird von folgenden Punkten initiiert: -A crawl start with activated remote indexing will automatically create a news entry.==Wird ein neuer Crawl mit aktivierter Remote-Crawling-Funktion gestartet, dann wird automatisch ein News-Eintrag erstellt. -Other peers may use this information to prevent double-crawls from the same start point.==Andere Peers können diese Informationen benutzen, um einen doppelten Crawl vom selben Startpunkt zu vermeiden. -A table with recently started crawls is presented on the Index Create - page==Eine Tabelle mit gerade gestarteten Crawls wird auf der "Index erzeugen"-Seite angezeigt. -A change in the personal profile will create a news entry. You can see recently made changes of==Bei einer Änderung im Profil wird auch ein News-Eintrag erstellt. -profile entries on the Network page, where that profile change is visualized with a '\*' beside the 'P' \(profile\) - selector.==Profil Einträge auf der Netzwerk Seite werden nach einer Änderung mit einem '*' neben dem 'P' (Profil) gekennzeichnet. -More news services will follow.==Mehr News Services werden folgen. - -Above you can see four menues:==Sie können diese vier Menüs sehen: -Incoming News \(\#\[insize\]\#\): latest news that arrived your peer.==Eingehende News(#[insize]#): Die neuesten News, die Ihren Peer erreicht haben. -Only these news will be used to display specific news services as explained above.==Nur diese News werden benutzt, um spezifische News Services anzuzeigen. -You can process these news with a button on the page to remove their appearance from the IndexCreate and Network page==Sie können diese News mit einem Button auf der Seite abarbeiten (als "gelesen" markieren). Dann werden diese Nachrichten nicht mehr auf der Netzwerk und der Index Create Seite erscheinen. -Processed News \(\#\[prsize\]\#\): this is simply an archive of incoming news that you removed by processing.==Gelesene News (#[prsize]#): Hier ist ein simples Archiv der bereits gelesenen News. -Outgoing News \(\#\[ousize\]\#\): here your can see news entries that you have created. These news are currently broadcasted to other peers.==Ausgehende News (#[ousize]#): Hier können Sie die News sehen, die durch Sie enstanden sind. Diese News werden sofort an andere Peers übertragen. -you can stop the broadcast if you want.==Sie können die Weiterverteilung stoppen, wenn Sie wollen. -Published News \(\#\[pusize\]\#\): your news that have been broadcasted sufficiently or that you have removed from the broadcast list.==Veröffentlichte News (#[pusize]#): Ihre News, die genügend verbreitet oder aus der Verbreitungsliste gelöscht wurden. -Originator==Initiator -Created==Geschaffen -Category==Kategorie -Received==Empfangen -Distributed==Verteilt -Attributes==Attribute -"\#\(page\)\#::Process Selected News::Delete Selected News::Abort Publication of Selected News::Delete Selected News\#\(/page\)\#"=="#(page)#::Gewählte News als gelesen markieren::Gewählte News löschen::Verbreitung gewählter News abbrechen::Gewählte News löschen#(/page)#" -"\#\(page\)\#::Process All News::Delete All News::Abort Publication of All News::Delete All News\#\(/page\)\#"=="#(page)#::Alle News als gelesen markieren::Alle News löschen::Verbreitung von allen News abbrechen::Alle News löschen#(/page)#" +Overview==概述 +Incoming News==已接收 +Processed News==已处理 +Outgoing News==已生成 +Published News==已发布 +This is the YaCyNews system \(currently under testing\).==这是YaCy新闻系统(测试中). +The news service is controlled by several entry points:==新闻服务由以下动作控制: +A crawl start with activated remote indexing will automatically create a news entry.==使用活动远端索引作为起始点的crawl会自动创建一个新闻条目. +Other peers may use this information to prevent double-crawls from the same start point.==其他的peer能利用此信息以防止相同起始点的二次crawl. +A table with recently started crawls is presented on the Index Create - page=="创建首页"-页面会显示最近启动的crawl. +A change in the personal profile will create a news entry. You can see recently made changes of==个人信息的改变会创建一个新闻条目, 可以在网络页面查看, +profile entries on the Network page, where that profile change is visualized with a '\*' beside the 'P' \(profile\) - selector.==以带有 '*' 的 'P' (资料)标记出. +More news services will follow.==接下来会有更多的新闻服务. + +Above you can see four menues:==上面四个菜单选项分别为: +Incoming News \(\#\[insize\]\#\): latest news that arrived your peer.==已接收新闻(#[insize]#): 发送至您peer的新闻. +Only these news will be used to display specific news services as explained above.==这些消息含有上述的特定新闻服务. +You can process these news with a button on the page to remove their appearance from the IndexCreate and Network page==您可以使用'创建首页'和'网络'页面的设置隐藏它们. +Processed News \(\#\[prsize\]\#\): this is simply an archive of incoming news that you removed by processing.==已处理新闻(#[prsize]#): 此页面显示您已删除的新闻. +Outgoing News \(\#\[ousize\]\#\): here your can see news entries that you have created. These news are currently broadcasted to other peers.==已生成新闻(#[ousize]#): 此页面显示您的peer创建的新闻条目, 默认发布给其他peer. +you can stop the broadcast if you want.==您也可以选择停止发布. +Published News \(\#\[pusize\]\#\): your news that have been broadcasted sufficiently or that you have removed from the broadcast list.==已发布新闻(#[pusize]#): 显示已经完全发布出去的新闻或者已经从发布列表删除的新闻. +Originator==拥有者 +Created==创建时间 +Category==分类 +Received==接收时间 +Distributed==已发布 +Attributes==属性 +"\#\(page\)\#::Process Selected News::Delete Selected News::Abort Publication of Selected News::Delete Selected News\#\(/page\)\#"=="#(page)#::处理选中新闻::删除选中新闻::停止发布选中新闻::删除选中新闻#(/page)#" +"\#\(page\)\#::Process All News::Delete All News::Abort Publication of All News::Delete All News\#\(/page\)\#"=="#(page)#::处理所有新闻::删除所有新闻::停止发布所有新闻::删除所有新闻#(/page)#" #----------------------------- #File: Performance_p.html #--------------------------- -Performance Settings==Leistungseinstellungen -Memory Settings==Speicher Einstellungen -Memory reserved for JVM==Für JVM reservierter Speicher -"Set"=="Setzen" -Resource Observer==Ressourcen Beobachter -DHT-Trigger==DHT-Umschalter -not triggered:==nicht ausgelöst: ->triggered==>ausgelöst -reset state==Status zurücksetzen -HDD==Festplattenspeicher -disable crawls below==Deaktivere Crawls unter -free space==freiem Speicher -disable DHT-in below==Deaktivere eingehende DHT Transfers unter -RAM==Arbeitsspeicher -Accepted change. This will take effect after restart of YaCy==Änderung akzeptiert. Diese werden erst nach einem Neustart von YaCy wirksam -restart now==jetzt neustarten -Confirm Restart==Bestätige Neustart -refresh graph==aktualisiere Diagramm +Performance Settings==性能设置 +Memory Settings==内存设置 +Memory reserved for JVM==JVM内存设置 +"Set"=="设置" +Resource Observer==资源查看 +DHT-Trigger==DHT-触发 +not triggered:==未触发: +>triggered==>已触发 +reset state==重置 +HDD==硬盘 +disable crawls below==停止crawl当低于 +free space==空闲空间 +disable DHT-in below==停止接收DHT当低于 +RAM==内存 +Accepted change. This will take effect after restart of YaCy==已接受改变. 在YaCy重启后生效 +restart now==立即重启 +Confirm Restart==确定重启 +refresh graph==刷新图表 #show memory tables==Zeige Speicher-Tabellen -Use Default Profile:==Standard Profil benutzen: -and use==und nutze -of the defined performance.==der vorgegebenen Geschwindigkeit. -Save==Speichern -Changes take effect immediately==Änderungen werden sofort wirksam -YaCy Priority Settings==YaCy Priorität Einstellungen -YaCy Process Priority==YaCy Prozess Priorität +Use Default Profile:==使用默认配置: +and use==并使用 +of the defined performance.==中的默认性能设置. +Save==保存 +Changes take effect immediately==改变立即生效 +YaCy Priority Settings==YaCy优先级设置 +YaCy Process Priority==YaCy进程优先级 #Normal==Normal -Below normal==unter Normal -Idle==untätig -"Set new Priority"=="Neue Priorität speichern" -Changes take effect after restart of YaCy==Änderungen werden erst nach einem Neustart von YaCy wirksam. -Online Caution Settings==Onlinezugriff Verzögerung Einstellungen -This is the time that the crawler idles when the proxy is accessed, or a local or remote search is done.==Dies ist die Zeit die der Crawler pausiert, wenn auf den Proxy zugegriffen wird, oder eine lokale oder globale Suche durchgeführt wird. -The delay is extended by this time each time the proxy is accessed afterwards.==Die normale Verzögerung wird um diese Zeit verlängert, wenn auf den Proxy zugegriffen wird. -This shall improve performance of the affected process \(proxy or search\).==Dies soll die Performance des betroffenen Prozesses (Proxy oder Suche) erhöhen. -\(current delta is==(Seit dem letzten Zugriff auf Proxy/Lokale-Suche/Globale-Suche sind -seconds since last proxy/local-search/remote-search access.\)==Sekunden vergangen.) -Online Caution Case==Onlinezugriff Typ -indexer delay \(milliseconds\) after case occurency==Indexierer Verzögerung (Millisekunden) nach Onlinezugriff +Below normal==低于普通 +Idle==空闲 +"Set new Priority"=="置为新优先级" +Changes take effect after restart of YaCy==在YaCy重启后生效. +Online Caution Settings==在线警告设置 +This is the time that the crawler idles when the proxy is accessed, or a local or remote search is done.==这是代理被访问或者搜索完成后的一段crawl空闲时间. +The delay is extended by this time each time the proxy is accessed afterwards.==在访问代理后, 会触发此延时, +This shall improve performance of the affected process \(proxy or search\).==从而提高相关进程(代理或者搜索)的性能. +\(current delta is==(当前设置为 +seconds since last proxy/local-search/remote-search access.\)==秒.) +Online Caution Case==触发事件 +indexer delay \(milliseconds\) after case occurency==事件触发后的索引延时(毫秒) #Proxy:==Proxy: -Local Search:==Lokale Suche: -Remote Search:==Remote Suche: -"Enter New Parameters"=="Neue Parameter eintragen" +Local Search:==本地搜索: +Remote Search:==远端搜索: +"Enter New Parameters"=="使用新参数" #----------------------------- #File: PerformanceMemory_p.html