This images shows incoming connections to your YaCy peer and outgoing connections from your peer to other peers and web servers==Здесь показаны входящие соединения к вашему узлу и исходящие соединения от вашего узла к другим узлам и вэб-серверам.
This is a list of #[num]# requests to the local http server within the last hour.==Число запросов на локальный http-сервер в течение последнего часа - #[num]#
The following hosts are registered as source for brute-force requests to protected pages==Следующие хосты зарегистрированы, как пытающиеся получить доступ к защищенным страницам с помощью перебора пароля.
#>Host==>Хост
Access Times==Время доступа
Server Access Details==Подробные сведения о доступе к серверу
Local Search Log==Лог локального поиска
Local Search Host Tracker==Локальный поиск на узле
Remote Search Log==Лог удалённого поиска
#Total:==Итого:
Success:==Успешно:
Remote Search Host Tracker==Удалённый поиск на узле
This is a list of searches that had been requested from remote peer search interface==Это список поисковых запросов, которые были запрошены удалёнными узлами.
With this settings you can activate or deactivate URL proxy which is the method used for augmentation.==Эти настройки позволяют включить или отключить URL-прокси - способ используемый для расширенного просмотра.
Service call: ==Вызов сервиса:
, where parameter is the url of an external web page.==, где параметр это ссылка на внешнюю вэб-страницу
>URL proxy:<==>URL-прокси:<
>Enabled<==>Включить<
Globally enables or disables URL proxy via ==Глобальное включение или отключение URL-прокси через
Show search results via URL proxy:==Показывать результаты поиска через URL-прокси:
Enables or disables URL proxy for all search results. If enabled, all search results will be tunneled through URL proxy.==Включение или отключение URL-прокси для всех результатов поиска. Если включено, то все результаты поиска будут выводиться через URL-прокси.
Alternatively you may add this javascript to your browser favorites/short-cuts, which will reload the current browser address==Альтернативно вы можете добавить этот javascript в избранные страницы/закладки вашего браузера, который будет открывать запрашиваемый адрес
via the YaCy proxy servlet.==через прокси-сервлет.
or right-click this link and add to favorites:==Или нажмите правой кнопкой мыши на эту ссылку и добавьте в закладки:
Restrict URL proxy use:==Запретить использование URL-прокси для:
Define client filter. Default: ==Задать фильтр для клиента. По-умолчанию:
URL substitution:==Замена ссылки:
Define URL substitution rules which allow navigating in proxy environment. Possible values: all, domainlist. Default: domainlist.==Задать правила замены ссылки, которые разрешат навигацию через прокси. Возможные значения: all, domainlist. По-умолчанию: domainlist.
With this settings you can activate or deactivate augmented browsing which happens usually via the URL proxy.==Эти настройки позволяют вам включить или отключить расширенный просмотр через URL-прокси.
Augmented Browsing:==Расширенный просмотр:
#>Enabled<==>Включить<
Enables or disables augmented browsing. If enabled, all websites will be modified during loading.==Включение или отключение расширенного просмотра. Если включено, то все вэб-страницы будут изменяться во время загрузки.
#"Submit"=="Сохранить"
#-----------------------------
#File: AugmentedBrowsingFilters_p.html
#---------------------------
Augmented Browsing - Filters and Modules==Расширенный просмотр - ссылки и модули
Select the desired inbuilt functionality==Выберите нужный встроенный функционал.
Add DOCTYPE:==Добавить DOCTYPE:
Add DOCTYPE information if not given. This is required for IE to render position:absolute correctly.==Добавить информацию DOCTYPE, если не задано. Это может потребоваться для просмотра позиции через Internet Explorer.
#Put webpage back into schema (htmlparser document) to allow node by node manipulation.==Setze Webseite zurück ins Schema (htmlpaser Dokuement), um Knoten bei Knoten Manipulation zu ermöglichen.
#Show overlay interaction buttons:==Zeige Overlay Schaltflächen zur Interaktion:
#Show overlay interaction buttons.==Zeige Overlay Schaltflächen zur Interaktion.
With this settings you can activate or deactivate augmented parsing which combines the documents with information from external sources (tags etc.).==Эти настройки позволяют включить или отключить расширенный анализ, который совмещает документы с информацией из внешних источников (например, тэги, и т.п.).
Globally enables or disables the augmented parser. This setting requires a restart.==Глобальное включение или отключение расширенного анализа. Изменение этой настройки потребует перезапуск программы.
Augmented Parser - RDFa:==Расширенный анализ RDFa:
Globally enables or disables the RDFa parser. This setting requires a restart.==Глобальное включение или отключение анализа RDFa. Изменение этой настройки потребует перезапуск программы.
This function provides an URL filter to the proxy; any blacklisted URL is blocked==Эта функция представляет собой URL-фильтр для прокси-сервера; адреса в черном списке не
from being loaded. You can define several blacklists and activate them separately.==загружаются. Вы можете задать несколько черных списков и активировать их по отдельности.
You may also provide your blacklist to other peers by sharing them; in return you may==Вы также можете открыть доступ к вашему черному списку другим узлам; или
collect blacklist entries from other peers.==загружать шаблоны из черных списков других узлов.
Active list:==Активный список:
No blacklist selected==Черный список не выбран
Select list to edit:==Выбрать список для изменения
not shared::shared==без общего доступа::общий доступ
"select"=="Выбрать"
Create new list:==Создать новый список
"create"=="Создать"
Settings for this list==Настройки для этого списка
"Save"=="Сохранить"
Share/don't share this list==Открыть/закрыть общий доступ этому к списку
Delete this list==Удалить этот список
Edit list==Изменить список
These are the domain name/path patterns in==Это доменное имя/часть пути в
Here you can remove or edit illegal or double blacklist-entries.==Здесь вы можете удалить или отредактировать ошибочные или двойные записи.
Check list==Проверка списка
"Check"=="Проверить"
Allow regular expressions in host part of blacklist entries.==Разрешить регулярные выражения в черном списке.
The blacklist-cleaner only works for the following blacklist-engines up to now:==Der Blacklist-Cleaner arbeitet zur Zeit nur mit den folgenden Blacklist-Engines:
Two wildcards in host-part==Две маски в хост-часть
Either subdomain <u>or</u> wildcard==Либо поддомен <u> или </u> шаблону
Path is invalid Regex==Неверный путь регулярного выражения
Wildcard not on begin or end==Шаблон не начат или не закончен
Host contains illegal chars==Хост содержит недопустимые символы
Double==Двойной
"Change Selected"=="Изменить выбранное"
"Delete Selected"=="Удалить выбранное"
No Blacklist selected==Не выбран черный список
#-----------------------------
#File: BlacklistImpExp_p.html
#---------------------------
Blacklist Import==Импорт черного списка
Used Blacklist engine:==Используется черный список:
Import blacklist items from...==Импортировать значения черного списка из...
other YaCy peers:==других узлов YaCy:
"Load new blacklist items"=="Загрузка новых значений черного списка"
URL:==по ссылке:
plain text file:<==простого текстового файла:<
XML file:==XML файла:
Upload a regular text file which contains one blacklist entry per line.==Загрузить обычный текстовый файл, который содержит черный список построчно.
Upload an XML file which contains one or more blacklists.==Загрузить XML-файл, который содержит один или несколько черных списков .
Export blacklist items to...==Экспорт значений черного списка в виде...
Here you can export a blacklist as an XML file. This file will contain additional==Здесь вы можете экспортировать черный список, как файл XML. Этот файл будет содержать дополнительную
information about which cases a blacklist is activated for.==информацию о том, в каком случае черный список будет активен.
"Export list as XML"=="Экспортировать список как XML"
Here you can export a blacklist as a regular text file with one blacklist entry per line.==Здесь вы можете экспортировать черный список, как обычный текстовый файл с одним значением на строку.
This file will not contain any additional information==Этот файл не будет содержать какой-либо дополнительной информации
"Export list as text"=="Экспортировать список как текст"
#-----------------------------
#File: BlacklistTest_p.html
#---------------------------
Blacklist Test==Проверка черного списка
Used Blacklist engine:==Использовать черный список:
Test list:==Проверка списка:
"Test"=="Проверить"
The tested URL was==Проверенный URL
It is blocked for the following cases:==Он блокируется в следующих случаях:
#Crawling==Индексирование
#DHT==DHT
#News==Новости
#Proxy==Прокси
Search==Поиск
Surftips==Советы
#-----------------------------
#File: Blog.html
#---------------------------
by==по
Comments</a>==Комментарии</a>
>edit==>изменить
>delete==>удалить
Edit<==Изменить<
previous entries==предыдущие записи
next entries==следующие записи
new entry==новая запись
import XML-File==импорт XML-файла
export as XML==экспорт в XML
Comments</a>==Комментарии</a>
Blog-Home==Домашняя страница блога
Author:==Автор:
Subject:==Тема:
#Text:==Текст:
You can use==Вы можете использовать
Yacy-Wiki Code==YaCy-Wiki код
here.==здесь.
Comments:==Комментарии:
deactivated==отключить
>activated==>активировать
moderated==проверено
"Submit"=="Отправить"
"Preview"=="Предварительный просмотр"
"Discard"=="Отменить"
>Preview==>Предварительный просмотр
No changes have been submitted so far!==Изменения не были произведены!
Access denied==Доступ запрещен
To edit or create blog-entries you need to be logged in as Admin or User who has Blog rights.==Чтобы изменить или создать блог, вы должны быть зарегистрированы в качестве администратора или пользователя, который имеет необходимые права.
Are you sure==Вы уверены
that you want to delete==что вы хотите удалить:
Confirm deletion==Подтвердить удаление
Yes, delete it.==Да, удалить это.
No, leave it.==Нет, оставить это.
Import was successful!==Импорт завершен успешно!
Import failed, maybe the supplied file was no valid blog-backup?==Не удалось импортировать, может быть, поставляемый файл не был резервной копией?
Please select the XML-file you want to import:==Пожалуйста, выберите XML-фаил, который вы импортируете:
The bookmarks list can also be retrieved as RSS feed. This can also be done when you select a specific tag.==Список закладок можно также получить как RSS-ленту. Это может быть сделано при выборе конкретного тега .
Click the API icon to load the RSS from the current selection.==Нажмите на иконку API для загрузки RSS из текущего выделения.
To see a list of all APIs, please visit the <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">API wiki page</a>.==Для просмотра списка всех API, пожалуйста, посетите <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">wiki-страницу API</a>.
Protection of all pages: if set to on, access to all pages need authorization; if off, only pages with "_p" extension are protected.==Защита всех страниц: если включено, то для доступа ко всем страницам требуется авторизация; если выключено, то защищены только страницы с префиксом "_p".
Set Access Rules==Установить
Select user==Выбрать пользователя
New user==Новый пользователь
Edit User==Изменить пользователя
Delete User==Удалить пользователя
Edit current user:==Изменить текущего пользователя:
Username</label>==Имя пользователя</label>
Password</label>==Пароль</label>
Repeat password==Повторите пароль
First name==Имя
Last name==Фамилия
Address==Адрес
Rights==Права
Download right==Загрузка
Timelimit==Лимит времени
Time used==Время использования
Save User==Сохранить пользователя
#-----------------------------
#File: ConfigAppearance_p.html
#---------------------------
Appearance and Integration==Внешний вид
You can change the appearance of the YaCy interface with skins.==Вы можете изменить внешний вид YaCy используя скины.
#You can change the appearance of YaCy with skins==Вы можете изменить внешний вид YaCy со скинами
The selected skin and language also affects the appearance of the search page.==Выбранный скин и язык, также влияют на внешний вид страницы поиска.
If you <a href="ConfigPortal_p.html">create a search portal with YaCy</a> then you can==Если вы <a href="ConfigPortal_p.html">создадите поиск с Yacy, </a>
change the appearance of the search page here.==то изменить внешний вид страницы поиска вы можете здесь.
#and the default icons and links on the search page can be replaced with you own.==и стандартные иконки и ссылки на странице поиска будут заменены на ваши.
Skin Selection==Выбор скина
Select one of the default skins, download new skins, or create your own skin.==Выберите один из стандартных скинов, загрузите новые скины, или создайте свой собственный скин.
Skins can be installed from download locations==Скин может быть установлен из источника на локальном компьютере
Install new skin from URL==Установка нового скина по ссылке
Use this skin==Использовать этот скин
"Install"=="Установить"
Make sure that you only download data from trustworthy sources. The new Skin file==Убедитесь, что вы загружаете данные из достоверного источника. Новый файл скина
might overwrite existing data if a file of the same name exists already.==может перезаписать существующий файл, если файл с таким именем уже существует.
>Unable to get URL:==>Не удалось получить по URL:
Error saving the skin.==Ошибка сохранения файла скина.
#-----------------------------
#File: ConfigBasic.html
#---------------------------
Access Configuration==Основные настройки
Basic Configuration==Основные настройки
Your port has changed. Please wait 10 seconds.==Порт вашего узла был изменён. Пожалуйста, подождите 10 секунд.
Your browser will be redirected to the new <a href="http://#[host]#:#[port]#/ConfigBasic.html">location</a> in 5 seconds.==Ваш браузер перейдёт на <a href="http://#[host]#:#[port]#/ConfigBasic.html">новую страницу</a> в течение 10 секунд.
Join and support the global network 'freeworld', search the web with an uncensored user-owned search network==Регистрация и поддержка глобальной сети 'FreeWorld', поиск в интернете без цензуры пользовательской поисковой сети.
Search portal for your own web pages==Поиск на ваших собственных сайтах
Your YaCy installation behaves independently from other peers and you define your own web index by starting your own web crawl. This can be used to search your own web pages or to define a topic-oriented search portal.==Ваш YaCy ведет себя независимо от других участников сети, и вы имеете свой собственный веб-индекс, начав самостоятельно индексировать веб. Это может быть использовано для поиска на собственном сайте или для создания тематического поискового портала.
Files may also be shared with the YaCy server, assign a path here:==Укажите путь к общим файлам, доступным серверу YaCy:
This path can be accessed at ==Этот путь можно получить по адресу
Use that path as crawl start point.==Используйте этот путь в качестве начальной точки индексирования.
Create a search portal for your intranet or web pages or your (shared) file system.==Создайте поисковый портал для вашей интранет-сети или веб-страниц, или вашей (распределённой) файловой системы.
URLs may be used with http/https/ftp and a local domain name or IP, or with an URL of the form==URL-адреса могут быть использованы с HTTP/HTTPS/FTP и локальным именем домена или IP-адресом, или ссылки
or smb:==или smb:
Your peer name has not been customized; please set your own peer name==Вы не указали имя узла. Пожалуйста, назовите свой узел.
You may change your peer name==Измените имя вашего узла
Peer Name:==Имя узла:
Your peer cannot be reached from outside==Ваш узел недоступен извне
which is not fatal, but would be good for the YaCy network==это не критично, но необходимо для правильной работы сети
please open your firewall for this port and/or set a virtual server option in your router to allow connections on this port==пожалуйста, разрешите подключения на этот порт в вашем брандмауэре или в настройках роутера
Your peer can be reached by other peers==Ваш узел доступен для других узлов
Peer Port:==Порт узла:
with SSL== использовать SSL
https enabled==HTTPS разрешено
on port==на порту
Configure your router for YaCy using UPnP:==Включить UPnP:
Configuration was not successful. This may take a moment.==Настройки не были применены. Попробуйте через некоторое время.
start an uncensored search==начать нецентрализованный поиск
start your own crawl</a> and contribute to the global index, or create your own private web index==начать своё собственное индексирование </> и внести вклад в глобальный поиск, или создать свой собственный веб-индекс
monitor at the network page</a> what the other peers are doing==страницу мониторинга сети </>
Your Peer name is a default name; please set an individual peer name.==Ваше имя узла является именем по-умолчанию, пожалуйста, установите другое имя узла.
You should set a password at the <a href="ConfigAccounts_p.html">Accounts Menu</a> to secure your YaCy peer.</p>::==Вы должны установить пароль в меню <a href="ConfigAccounts_p.html">Учётные записи</a>, чтобы защитить узел YaCy.</p>::
You did not open a port in your firewall or your router does not forward the server port to your peer.==Вы не открыли порт на фаерволе или ваш роутер не перенаправляет запросы на порт сервера.
This is needed if you want to fully participate in the YaCy network.==Это необходимо, если вы хотите полноценно участвовать в сети.
You can also use your peer without opening it, but this is not recomended.==YaCy может работать и без открытия порта, но это нежелательно.
A <a href="http://en.wikipedia.org/wiki/Heuristic" target="_blank">heuristic</a> is an 'experience-based technique that help in problem solving, learning and discovery' (wikipedia).==<a href="http://ru.wikipedia.org/wiki/Эвристика" target="_blank">Эвристика</a> это специальный метод, который помогает в анализе и поиске лучшего результата.
The search heuristics that can be switched on here are techniques that help the discovery of possible search results based on link guessing, in-search crawling and requests to other search engines.==Эвристический поиск использует методы, которые помогают улучшить результат поиска за счет предугадывания ссылок и/или запросов к другим поисковым системам.
When a search heuristic is used, the resulting links are not used directly as search result but the loaded pages are indexed and stored like other content.==Когда используется эвристический поиск, полученные ссылки не используются в поисковой выдаче напрямую, а используются для индексации новых страниц.
This ensures that blacklists can be used and that the searched word actually appears on the page that was discovered by the heuristic.==Это даёт возможность использовать черные списки и гарантирует, что искомое слово реально есть на странице найденной эвристикой.
The success of heuristics are marked with an image==Успех эвристики отмечен изображением
below the favicon left from the search result entry:==под иконкой слева от результата поиска:
The search result was discovered by a heuristic, but the link was already known by YaCy==Результат поиска был обнаружен при помощи эвристики, но ссылка была уже известна YaCy.
The search result was discovered by a heuristic, not previously known by YaCy==Результат поиска был обнаружен при помоще эвристики, но ранее не был известен YaCy.
When a search is made using a 'site'-operator (like: 'download site:yacy.net') then the host of the site-operator is instantly crawled with a host-restricted depth-1 crawl.==Если при поиске используется оператор 'site' (например: 'download site:yacy.net'), то указанный сайт индексируется с глубиной поиска 1.
That means: right after the search request the portal page of the host is loaded and every page that is linked on this page that points to a page on the same host.==Это означает, что сразу после поискового запроса загружается главная страница сайта и все страницы сайта на которые есть ссылки с главной.
Because this 'instant crawl' must obey the robots.txt and a minimum access time for two consecutive pages, this heuristic is rather slow, but may discover all wanted search results using a second search (after a small pause of some seconds).==Так как эта эвристика должна соблюдать указанные в robots.txt и в конфигурации YaCy ограничения, то она достаточно медленная. Но страницы могут быть доступны при следущем поиске (через несколько секунд).
search-result: shallow crawl on all displayed search results==Результат поиска: неглубокая индексация всех отображенных результатов поиска
When a search is made then all displayed result links are crawled with a depth-1 crawl.==При выполнении поиска все отображённые ссылки индексируются с глубиной 1.
This means: right after the search request every page is loaded and every page that is linked on this page.==Это означает, что сразу после поиска запрос каждой страницы загружается и каждая страница ссылается на эту страницу.
If you check 'add as global crawl job' the pages to be crawled are added to the global crawl queue (remote peers can pickup pages to be crawled).==Если вы выбираете 'добавить как задачу глобального индексирования', то страницы для индексирования будут добавлены в очередь глобального индексирования (удалённые узлы могут загружать страницы для индексации).
Default is to add the links to the local crawl queue (your peer crawls the linked pages).==По-умолчанию ссылки добавляются в очередь локального индексирования (ваш узел индексирует ссылки на страницы).
When using this heuristic, then every new search request line is used for a call to listed opensearch systems.==При использовании эвристики, каждый поисковый запрос используется для вызова доступных opensearch-систем.
20 results are taken from remote system and loaded simultanously, parsed and indexed immediately.==20 результатов берутся из удалённой системы, загружаются одновременно, анализируются и индексируются сразу.
To find out more about OpenSearch see==Для поиска информации об OpenSearch смотрите
"reset to default list"=="Восстановить список по-умолчанию"
"discover from index" class=="Открыть из индекса" класс
start background task, depending on index size this may run a long time==Запустить фоновую задачу. В зависимости от размера индекса, это может занять длительное время.
With the button "discover from index" you can search within the metadata of your local index (Web Structure Index) to find systems which support the Opensearch specification.==При нажатии кнопки "Открыть из индекса" вы можете производить поиск в метаданных вашего локального индекса (вэб-индекса) с помощью систем, которые поддерживают спецификации Opensearch.
The task is started in the background. It may take some minutes before new entries appear (after refreshing the page).==Задача будет запущена в фоне. Может пройти несколько минут, прежде чем появятся первые результаты (после обновления страницы).
Alternatively you may==В качестве альтернативы вы можете скопировать и вставить
>copy & paste a example config file<==> пример файла настроек<
located in <i>defaults/heuristicopensearch.conf</i> to the DATA/SETTINGS directory.==<i>heuristicopensearch.conf</i>, хранящийся по-умолчанию в папке DATA/SETTINGS.
For the discover function the <i>web graph</i> option of the web structure index and the fields <i>target_rel_s, target_protocol_s, target_urlstub_s</i> have to be switched on in the <a href="IndexSchema_p.html?core=webgraph">webgraph Solr schema</a>.==Обратите внимание, что функция <i>Webgraph</i>, опция вэб-структуры индекса и поля <i>target_rel_s, target_protocol_s, target_urlstub_s</i> должны быть включены в <a href="IndexSchema_p.html?core=webgraph">схеме Webgraph Solr</a>.
Index Sources & Targets==Источники индекса и цели
YaCy supports multiple index storage locations.==YaCy поддерживает несколько путей к хранилищам индекса.
As an internal indexing database a deep-embedded multi-core Solr is used and it is possible to attach also a remote Solr.==Используется внутренняя база данных индекса встроенная в мульти-ядро Solr, но также может использоваться и удалённая база Solr.
Solr Search Index==База данных Solr
Solr stores the main search index. It is the home of two cores, the default 'collection1' core for documents and the 'webgraph' core for a web structure graph. Detailed information about the used Solr fields can be edited in the <a href="IndexSchema_p.html">Schema Editor</a>.==Solr содержит главный поисковый индекс. База данных состоит из двух ядер: по-умолчанию ядро 'collection1' для документов и ядро 'webgraph' для вэб-контента. База данных Solr может быть подробно настроена через <a href="IndexSchema_p.html">редактор схемы</a>.
Lazy Value Initialization =="Ленивые" значения инициализации
If checked, only non-zero values and non-empty strings are written to Solr fields.==Если отмечено, то только не нулевые значения и не пустые строки, будут записаны в поля Solr.
Use deep-embedded local Solr ==Использовать встроенную локальную базу Solr
This will write the YaCy-embedded Solr index which stored within the YaCy DATA directory.==Для записи данных будет использоваться встроенная база Solr, которая хранится в папке DATA.
The Solr native search interface is accessible at<br/>==Интерфейс поиска Solr доступен по ссылке
for the webgraph core.<br/>==для ядра вэб-контента.<br/>
If you switch off this index, a remote Solr must be activated.==Если вы выключите использование встроенной базы, то будет активирована удалённая база Solr.
Solr Host Administration Interface==Интерфейс управления Solr
Index Size==Документов в индексе
It's easy to <a href="http://www.yacy-websearch.net/wiki/index.php/Dev:Solr" target="_blank">attach an external Solr to YaCy</a>.==Присоединить внешнюю базу Solr <a href="http://www.yacy-websearch.net/wiki/index.php/Dev:Solr" target="_blank">просто</a>.
This external Solr can be used instead the internal Solr. It can also be used additionally to the internal Solr, then both Solr indexes are mirrored.==Внешняя база данных Solr будет использоваться вместо встроенной. Вы также можете использовать дополнительно встроенную базу, но тогда индексы будут сохраняться в обе базы.
You can set one or more Solr targets here which are accessed as a shard. For several targets, list them using a ',' (comma) as separator.==Вы можете установить одну или более баз Solr, которые будут доступны распределённо. Адреса нескольких баз указывайте через запятую.
The set of remote targets are used as shard of a complete index. The host part of the url is used as key for a hash function which selects one of the shards (one of your remote servers).==Установленные удалённые цели используются как единое целое. Часть ссылок на хосте используется как ключ для хэш-функции, который выбирается одним из сегментов (один из ваших удалённых серверов).
When a search request is made, all servers are accessed synchronously and the result is combined.==Когда выполнятся поисковый запрос, результат суммируется, так как все серверы доступны синхронно.
write-enabled (if unchecked, the remote server(s) will only be used as search peers)==Запись разрешена. Если не отмечено, то удалённый сервер будет использоваться только для поиска узлов.
The web structure index is used for host browsing (to discover the internal file/folder structure), ranking (counting the number of references) and file search (there are about fourty times more links from loaded pages as in documents of the main search index).==Индекс вэб-контента используется для просмотра хостов (поиск локальных файлов и папок), ранжирования (подсчет числа ссылок) и поиска файлов (примерно в 40 раз больше ссылок из загруженных страниц в документах главного поискового индекса).
use citation reference index (lightweight and fast)==Использовать ссылки индекса цитирования (легкий и быстрый)
use webgraph search index (rich information in second Solr core)==Использовать поисковый индекс вэб-графики (больше информации во втором ядре Solr)
The 'RWI' (Reverse Word Index) is necessary for index transmission in distributed mode. For portal or intranet mode this must be switched off.=='RWI' (Обратный индекс слов) необходим для передачи индекса в распределённом режиме. Для поиска в интранете или на локальном сайте он должен быть отключен.
support peer-to-peer index transmission (DHT RWI index)==Включить поддержку P2P-передачи индекса (DHT RWI индекс)
If you use a custom Solr schema you may enter a different field name in the column 'Custom Solr Field Name' of the YaCy default attribute name==При необходимости, вы можете использовать различные названия полей в колонке "Пользовательское имя поля Solr" вместо стандартных.
Select a core:==Выберите ядро
the core can be searched at==которое может быть найдено по ссылке
Active==Включено
Attribute==Аттрибут
Custom Solr Field Name==Пользовательское имя поля Solr
Comment==Комментарий
show active==Показать активные
show all available==Показать все доступные
show disabled==Показать отключенные
"Set"=="Сохранить"
"reset selection to default"=="Вернуть значения по-умолчанию"
>Reindex documents<==>Переиндексация документов<
If you unselected some fields, old documents in the index still contain the unselected fields.==Если вы не отметили некоторые поля, старые документы в индексе по прежнему будут содержать неотмеченные поля.
To physically remove them from the index you need to reindex the documents.==Для физического удаления таких полей из индекса, вам необходимо переиндексировать документы.
Here you can reindex all documents with inactive fields.==Здесь вы можете запустить переиндексацию всех документов с неотмеченными полями.
You may monitor progress (or stop the job) under <a href="IndexReIndexMonitor_p.html">IndexReIndexMonitor_p.html</a>==Посмотреть или остановить ход работы вы можете на странице <a href="IndexReIndexMonitor_p.html">переиндексации.</a>
The HTCache stores content retrieved by the HTTP and FTP protocol. Documents from smb:// and file:// locations are not cached.==Кэш содержит данные полученные по HTTP и FTP протоколу. Документы из smb:// и file:// не кэшируются.
The cache is a rotating cache: if it is full, then the oldest entries are deleted and new one can fill the space.==Если кэш заполнен, то старые записи будут удалены и заменены на новые.
HTCache Configuration==Настройка кэша
The path where the cache is stored==Место хранения кэша
The current size of the cache==Текущий размер кэша
>#[actualCacheSize]# MB for #[actualCacheDocCount]# files, #[docSizeAverage]# KB / file in average==>#[actualCacheSize]# MB для #[actualCacheDocCount]# файлов, средний размер файла #[docSizeAverage]# KB
Send additions to maintainer</em>==Отправьте замечания координатору перевода</em>
Available Languages</label>==Доступные языки</label>
Install new language from URL==Установить новый язык по ссылке
Use this language==Использовать этот язык
"Use"=="Использовать"
"Delete"=="Удалить"
"Install"=="Установить"
Unable to get URL:==Не удалось получить URL:
Error saving the language file.==Ошибка сохранения языкового файла.
Make sure that you only download data from trustworthy sources. The new language file==Убедитесь, что вы загружаете новый языковой файл из достоверных источников.
might overwrite existing data if a file of the same name exists already.==Возможна перезапись существующих данных, если файл с таким именем уже существует.
#-----------------------------
#File: ConfigLiveSearch.html
#---------------------------
Integration of a Search Field for Live Search==Интеграция поискового модуля для живого поиска
Integration of Live Search with YaCy Search Widget==Интеграция поиска с виджетом YaCy
There are basically two methods for integrating the YaCy Search Widget with your web site.==Существуют два основных метода для интеграции виджета YaCy на вашем сайте.
Static hosting of widget on own HTTP server==Размещение виджета на собственном HTTP-сервере
Remote access through selected YaCy Peer==Удалённый доступ через выбранный узел YaCy
Advantages:==Преимущества:
faster connection speed==Быстрая скорость соединения
possibility for local adaptions==Возможность локальных адаптаций
Disadvantages:==Недостатки:
No automatic update to future releases of YaCy Search Widget==Отсутствие обновления будущих релизов виджета
Ajax/JSONP cross domain requests needed to query remote YaCy Peer==AJAX/JSON кросс-доменные запросы, необходимые для удалённого запроса узла
Installing:==Установка:
download yacy-portalsearch.tar.gz from==Необходимо загрузить файл yacy-portalsearch.tar.gz из
unpack within your HTTP servers path==Распаковать на ваш HTTP-сервер
use ./yacy/portalsearch/yacy-portalsearch.html as reference for integration with your own portal page==Использовать ./yacy/portalsearch/yacy-portalsearch.html как ссылку для интеграции на вашей странице поиска
#Remote access through selected YaCy Peer==Удалённый доступ через выбранный узел YaCy
#Advantages:==Преимущества:
Always latest version of YaCy Search Widget==Всегда последняя версия виджета YaCy
No Ajax/JSONP cross domain requests, as Search Widget and YaCy Peer are hosted on the same domain.==Нет AJAX/JSON кросс-доменных запросов, так как виджет поиска и узел YaCy размещены на нескольких доменах.
Under certain cirumstances slower than static hosting==В определённых случаях работает медленнее, чем при размещении на постоянном хостинге.
Just use the code snippet below and paste it any place in your own portal page==Вставьте приведённый ниже фрагмент кода в любое место на вашей странице поиска
Please check if '#[ip]#:#[port]#' is appropriate or replace it with address of the YaCy Peer holding your index==Пожалуйста, проверьте правильность адреса '#[ip]#:#[port]#'. Если необходимо, то вы можете заменить его адресом вашего узла.
A 'Live-Search' input field that reacts as search-as-you-type in a pop-up window can easily be integrated in any web page==Поле "живого" поиска реагирует сразу на вводимый запрос и может просто интегрироваться в вашу вэб-страницу.
This is the same function as can be seen on all pages of the YaCy online-interface (look at the window in the upper right corner)==Эту функцию можно увидеть на всех страницах интерфейса YaCy (например, окно в верхнем правом углу)
#Just use the code snippet below to integrate that in your own web pages==Используйте указанный ниже фрагмент кода, для интеграции на свою вэб-страницу
Just use the code snippet below and paste it any place in your own portal page==Вставьте указанный ниже фрагмент кода в любое место на своей странице поиска
#Please check if the address, as given in the example '#[ip]#:#[port]#' here is correct and replace it with more appropriate values if necessary==Пожалуйста, проверьте правильность адреса указанного в примере '#[ip]#:#[port]#' и, если необходимо, измените на верный.
Size and position (width | height | position)==Размер и положение (ширина | высота | положение )
Specifies where the dialog should be displayed. Possible values for position: 'center', 'left', 'right', 'top', 'bottom', or an array containing a coordinate pair (in pixel offset from top left of viewport) or the possible string values (e.g. ['right','top'] for top right corner)==Указывает место отображения диалогового окна. Возможные значения для позиционирования: 'center', 'left', 'right', 'top', 'bottom', или массив содержащий необходимую пару координат (в пикселях от верхнего левого угла области просмотра) или возможные строковые значения (напр. ['right','top'] для верхнего правого просмотра)
If modal is set to true, the dialog will have modal behavior; other items on the page will be disabled (i.e. cannot be interacted with).==Если модальное значение установлено как "true", то окно будет иметь модальное поведение; другие элементы на странице будут отключены.
Modal dialogs create an overlay below the dialog but above other page elements.==Модальные окна создают наложение под диалоговом окном, но над другими элементами страницы.
If resizable is set to true, the dialog will be resizeable.==Если значение изменяемости окна установлено как "true", то диалоговое окно будет изменяться.
This parameter is used for static hosting only.==Этот параметр используется только при постоянном хостинге.
>Themes<==>Темы<
You can download standard jquery-ui themes or create your own custom themes on==Вы можете загрузить стандартные jQuery UI темы или создать собственные на
Themes are installed in ./yacy/jquery/themes/ (static hosting) or in DATA/HTDOCS/jquery/themes/ on remote YaCy Peer.==Темы установлены в ./yacy/jquery/themes/ (постоянный хостинг) или в DATA/HTDOCS/jquery/themes/ на удалённом узле.
#P2P operation can run without remote indexing, but runs better with remote indexing switched on. Please switch 'Accept Remote Crawl Requests' on==P2P-Tätigkeit läuft ohne Remote-Indexierung, aber funktioniert besser, wenn diese eingeschaltet ist. Bitte aktivieren Sie 'Remote Crawling akzeptieren'
For P2P operation, at least DHT distribution or DHT receive (or both) must be set. You have thus defined a Robinson configuration==Для P2P-режима должно быть разрешена или отправка через DHT или приём (или и то и другое). Вы указали автономную (Robinson) конфигурацию
Global Search in P2P configuration is only allowed, if index receive is switched on. You have a P2P configuration, but are not allowed to search other peers.==Глобальный P2P-поиск доступен только, если у вас включен приём индекса через DHT. У вас P2P-конфигурация, но вам не доступен глобальный поиск.
For Robinson Mode, index distribution and receive is switched off==Для автономного (Robinson) режима, отсылка и прием индекса отключены
#This Robinson Mode switches remote indexing on, but limits targets to peers within the same cluster. Remote indexing requests from peers within the same cluster are accepted==Dieser Robinson-Modus aktiviert Remote-Indexierung, aber beschränkt die Anfragen auf Peers des selben Clusters. Nur Remote-Indexierungsanfragen von Peers des selben Clusters werden akzeptiert
#This Robinson Mode does not allow any remote indexing (neither requests remote indexing, nor accepts it)==Dieser Robinson-Modus erlaubt keinerlei Remote-Indexierung (es wird weder Remote-Indexierung angefragt, noch akzeptiert)
Network and Domain Specification==Спецификация сети и домена
# With this configuration it is not allowed to authentify automatically from localhost!==Такая конфигурация не разрешает автоматически авторизовать локальный компьютер!
# Please open the <a href="ConfigAccounts_p.html">Account Configuration</a> and set a new password.==Пожалуйста, откройте <a href="ConfigAccounts_p.html">учётные записи</a> и установите новый пароль.
YaCy can operate a computing grid of YaCy peers or as a stand-alone node.==YaCy может работать в режиме кластера узлов или как одиночный узел.
To control that all participants within a web indexing domain have access to the same domain,==Для того, чтобы все участники домена индексации имели доступ к одним и тем же данным,
this network definition must be equal to all members of the same YaCy network.==данное описание сети должно быть одинаково у всех членов этой сети.
>Network Definition<==>Сеть<
Remote Network Definition URL==Ссылка на удалённую сеть
Enter custom URL...==Введите свою ссылку...
Network Nick==Название сети
Long Description==Подробное описание
Indexing Domain==Индексация домена
#DHT==DHT
"Change Network"=="Изменить сеть"
Distributed Computing Network for Domain==Сеть распределенных вычислений для домена
You can configure if you want to participate at the global YaCy network or if you want to have your==Эти параметры позволяют настроить поиск в глобальной сети или внутри вашего
own separate search cluster with or without connection to the global network. You may also define==кластера, с подключением или без подключения к глобальной сети. Вы можете также задать
a completely independent search engine instance, without any data exchange between your peer and other==совершенно независимый поисковый движок, без обмена любыми данными между вашим узлом и другими
peers, which we call a 'Robinson' peer.==узлами. Этот режим мы называем 'Robinson'.
Peer-to-Peer Mode==Режим P2P
>Index Distribution==>Распределение индекса
This enables automated, DHT-ruled Index Transmission to other peers==Автоматическая передача индекса через DHT на другие узлы
>enabled==>включить
disabled during crawling==отключить во время сканирования
disabled during indexing==отключить во время индексации
>Index Receive==>Приём индекса
Accept remote Index Transmissions==Приём удалённых передач индекса
This works only if you have a senior peer. The DHT-rules do not work without this function==Работает только, если ваш узел является старшим. Правила DHT не работают без этой функции.
>reject==>запретить
accept transmitted URLs that match your blacklist==принимать ссылки, совпадающие с вашим чёрным списком
#Perform web indexing upon request of another peer==Выполнять вэб-индексирование при запросе от другого узла
#This works only if you are a senior peer==Работает только, если ваш узел является старшим.
#Load with a maximum of==Загрузить максимум
#pages per minute==страниц в минуту (PPM)
>Robinson Mode==>Режим Robinson
If your peer runs in 'Robinson Mode' you run YaCy as a search engine for your own search portal without data exchange to other peers==Если ваши узлы работают в режиме Robinson, то вы можете запустить YaCy в качестве движка для собственного поискового портала, без обмена данными с другими узлами
There is no index receive and no index distribution between your peer and any other peer==В случае выбора Robinson-кластеризации, приём и передача индекса между вашим и другими узлами будут отсутствовать
Your search engine will not contact any other peer, and will reject every request==Ваш узел не будет контактировать с любыми другими узлами, и будет возвращать любой запрос
#>Private Cluster==>Частный кластер
#Your peer is part of a private cluster without public visibility
#Index data is not distributed, but remote crawl requests are distributed and accepted from your cluster
#Search requests are spread over all peers of the cluster, and answered from all peers of the cluster
Your peer is part of a public cluster within the YaCy network==Ваш узел является частью публичного кластера внутри сети YaCy
Index data is not distributed, but remote crawl requests are distributed and accepted==Индексные данные не распространяются, но удалённые запросы индексирования распространяются и принимаются
Search requests are spread over all peers of the cluster, and answered from all peers of the cluster==Поисковые запросы распространяются на все узлы кластера, результаты поиска принимаются от всех узлов кластера
You are visible to other peers and contact them to distribute your presence==Ваш узел виден другим участникам и вы связываетесь с ними для распространения своего присутствия
Your peer does not accept any outside index data, but responds on all remote search requests==Ваш узел не принимает любые сторонние данные индекса, но отвечает на все удалённые поисковые запросы
>Peer Tags==>Тэги узла
When you allow access from the YaCy network, your data is recognized using keywords==Когда вы разрешаете доступ из сети YaCy, ваши данные распознаются с помощью ключевых слов
If you leave the field empty, no peer asks your peer. If you fill in a '*', your peer is always asked.==Если вы оставите поле пустым, то другие узлы не будут опрашивать ваш узел. Если вы укажите в поле '*', то ваш узел всегда будет опрашиваться.
Content Parser Settings==Настройки анализа контента
With this settings you can activate or deactivate parsing of additional content-types based on their MIME-types.==С помощью этих настроек вы можете включить или выключить анализ дополнительных типов контента.
For a detailed description of the various MIME-types take a look at==Детальное описание различных типов файлов смотрите на
If you want to test a specific parser you can do so using the==Если вы желаете тестировать специальные парсеры, вы также можете использовать
If you like to integrate YaCy as portal for your web pages, you may want to change icons and messages on the search page.==Если вы хотите интегрировать YaCy как поиск для веб-страниц, то вы можете менять иконки и сообщения на странице поиска.
The search page may be customized.==Страница поиска может быть настроена.
You can change the 'corporate identity'-images, the greeting line==Вы можете изменить картинку фирменного логотипа, строку приветствия
and a link to a home page that is reached when the 'corporate identity'-images are clicked.==и ссылку на домашную страницу, которая будет доступна при нажатии на картинку фирменного логотипа.
To change also colours and styles use the <a href="ConfigAppearance_p.html">Appearance Servlet</a> for different skins and languages.==Изменить цвета и стили, языки и скины можно на <a href="ConfigAppearance_p.html">этой</a> странице.
Speed up search results with this option! (use CACHEONLY or FALSE to switch off verification)==Скорость поиска результатов с этой опцией повышается! (Используйте CACHEONLY или FALSE для выключения проверки)
NOCACHE: no use of web cache, load all snippets online==NOCACHE: не использовать вэб-кэш, загружать все фрагменты из сети
IFFRESH: use the cache if the cache exists and is fresh otherwise load online==IFRESH: использовать кэш, если он содержит более свежие данные. Иначе загружать фрагменты из сети
IFEXIST: use the cache if the cache exist or load online==IFEXIST: использовать кэш или загружать из сети
If verification fails, delete index reference==Если при проверке возникают ошибки, то удалите индекс ссылок
CACHEONLY: never go online, use all content from cache. If no cache entry exist, consider content nevertheless as available and show result without snippet==CACHEONLY: не загружать фрагменты из сети, использовать только содержимое кэша. Если кэша нет, то данные загрузятся как есть. Некоторые фрагменты могут отсутствовать
FALSE: no link verification and not snippet generation: all search results are valid without verification==FALSE: не проверять ссылки и не загружать фрагменты: все результаты поиска не проверяются
load documents linked in search results, will be deactivated automatically when index size==Отображать в результатах поиска связанные документы. Может быть отключен автоматически при достижении размера индекса
no link to YaCy Menu (admin must navigate to /Status.html manually)==не отображать ссылку на меню YaCy (администратор должен перейти к / Status.html вручную )
Show Advanced Search Options on Search Page?==Отображать расширенный поиск на поисковой странице?
Special Target as Exception for an URL-Pattern==Исключение для шаблона URL
Pattern:<==Шаблон:<
>Exclude Hosts<==>Исключить хосты<
List of hosts that shall be excluded from search results by default but can be included using the site:<host> operator:==Список хостов, которые будут исключены из результатов поиска по-умолчанию, но могут быть включены с помощью параметра 'сайт: <хост> оператор:'
'About' Column<br/>(shown in a column alongside<br/>with the search result page)==Раздел 'О пользователе (компании)'<br/>(показывается в колонке рядом<br/>на странице поиска)
You have to <a href="ConfigAccounts_p.html">set a remote user/password</a> to change this options.==Вам необходимо <a href="ConfigAccounts_p.html">установить пароль и имя удалённого пользователя,</a> чтобы изменить эти опции.
The search page can be integrated in your own web pages with an iframe. Simply use the following code:==Страница поиска может быть интегрирована в ваш собственный сайт с использованием фрейма. Просто используйте следующий код:
This would look like:==Это будет выглядить так:
For a search page with a small header, use this code:==Для страницы поиска с небольшим заголовком используйте этот код:
A third option is the interactive search. Use this code:==Третьим вариантом является интерактивный поиск. Используйте этот код:
#-----------------------------
#File: ConfigProfile_p.html
#---------------------------
Your Personal Profile==Ваш персональный профиль
You can create a personal profile here, which can be seen by other YaCy-members==Вы можете создать персональный профиль в этом разделе, который может быть доступен другим участникам Yacy
or <a href="ViewProfile.html?hash=localhash">in the public</a> using a <a href="ViewProfile.rdf?hash=localhash">FOAF RDF file</a>.==или будет находиться <a href="ViewProfile.html?hash=localhash">в публичном доступе</a>, используя <a href="ViewProfile.rdf?hash=localhash">файл FOAF RDF</a>.
Homepage (appears on every <a href="Supporter.html">Supporter Page</a> as long as your peer is online)==Домашная страница (отображается на каждой <a href="Supporter.html">поддерживаемой странице,</a> до тех пор, Ваш узел в онлайне).
Here are all configuration options from YaCy.==Здесь находятся все конфигурационные опции YaCy.
You can change anything, but some options need a restart, and some options can crash YaCy, if wrong values are used.==Вы можете изменить любые опции, но некоторые из них требуют перезапуска YaCy, или даже могут, при использовании неправильных значений, вызвать падение.
For explanation please look into defaults/yacy.init==Дополнительные сведения вы можете узнать в файле defaults/yacy.init
"Save"=="Сохранить"
"Clear"=="Очистить"
#-----------------------------
#File: ConfigRobotsTxt_p.html
#---------------------------
Exclude Web-Spiders==Доступ к вэб-интерфейсу
Here you can set up a robots.txt for all webcrawlers that try to access the webinterface of your peer.==В файле robots.txt вы можете указать параметры ограничения доступа к вэб-интерфейсу вашего узла.
It disallows crawlers to access webpages or even entire domains.==Таким образом, вы закроете доступ индексаторам к вэб-странице вашего узла или даже целому домену.
Simply use the following code:==Просто используете следующий код:
MySearch== Мой поиск
"Search"=="Поиск"
This would look like:==Это будет выглядеть как:
This does not use a style sheet file to make the integration into another web page with a different style sheet easier.==Чтобы сделать интеграцию поиска проще таблица стилей не использовалась.
You would need to change the following items:==Вам потребуется изменить следующие элементы:
>Search Result Page Layout Configuration<==>Конфигурация макета страницы результатов поиска<
Below is a generic template of the search result page. Mark the check boxes for features you would like to be displayed.==Ниже приведён общий макет страницы результатов поиска. Отметьте компоненты, которые должны быть отображены.
To change colors and styles use the ==Изменить цвета, стили и скины вы можете
Other portal settings can be adjusted in <a href="ConfigPortal_p.html">Generic Search Portal</a> menu.==Другие настройки портала могут быть изменены на Меню <a href="ConfigPortal_p.html">странице интеграции поиска</a>.
Omitting update because download of release #[downloadedRelease]# failed.==Пропускаю обновление, потому что загрузка версии #[downloadedRelease]# не была успешной.
Showing #[numActiveRunning]# active, #[numActivePending]# pending connections from a max. of #[numMax]# allowed incoming connections.==Показаны #[numActiveRunning]# активных и #[numActivePending]# ожидающих соединений из максимум #[numMax]# разрешённых входящих соединений.
Showing #[numActiveRunning]# active connections from a max. of #[numMax]# allowed incoming connections.==Показаны #[numActiveRunning]# активных соединений из максимум #[numMax]# разрешённых входящих соединений.
Peer Content Control URL Filter==Управление контентом узла
With this settings you can activate or deactivate content control on this peer.==Эти настройки позволяют включить или отключить управление контентом для вашего узла.
Use content control filtering:==Использовать фильтр управления контентом:
>Enabled<==>Включить<
Enables or disables content control.==Включение или отключение управления контентом.
Use this table to create filter:==Использовать это поле для создания фильтра:
Define a table. Default:==Задать значение поля. По-умолчанию:
Content Control SMW Import Settings==Импорт настроек управления контентом SMW
With this settings you can define the content control import settings. You can define a==Эти настройки позволяют задать параметры импорта настроек управления контентом
Semantic Media Wiki with the appropriate extensions.==Semantic Media Wiki с соответствующими расширениями.
SMW import to content control list:== Импорт SMW в список управления контентом:
Enable or disable constant background synchronization of content control list from SMW (Semantic Mediawiki). Requires restart!==Включение или отключение постоянной фоновой синхронизации списка управления контентом из SMW (Semantic Mediawiki). Потребуется перезапуск программы!
SMW import base URL:==Ссылка на импортируемую базу SMW:
Define base URL for SMW special page "Ask". Example: ==Укажите ссылку на базу SMW на специальной странице "Ask". Например:
SMW import target table:==Поле назначения импорта SMW:
Define import target table. Default: contentcontrol==Укажите поле назначения импорта. По-умолчанию: contentcontrol
Purge content control list on initial sync:==Удалить список управления контентом в начале синхронизации:
Purge content control list on initial synchronisation after startup.==Удалить список управления контентом в начале синхронизации после запуска программы.
This is a list of Cookies that a web server has sent to clients of the YaCy Proxy:==Это список куки, которые вэб-сервер отправил клиентам через прокси YaCy:
This is a list of cookies that browsers using the YaCy proxy sent to webservers:==Это список куки, которые были отправлены браузерами вэб-серверам через прокси YaCy:
This pages gives you an analysis about the possible success for a web crawl on given addresses.==Здесь вы можете проверить нужную вам ссылку на возможность проведения индексирования.
List of possible crawl start URLs==Список ссылок для проверки
>Scheduled Crawls can be modified in this table<==>Запланированное индексирование можно изменить в этой таблице<
Crawl profiles hold information about a crawl process that is currently ongoing.==Профили содержат информацию о текущем индексировании.
#Crawl profiles hold information about a specific URL which is internally used to perform the crawl it belongs to.==Crawl Profile enthalten Informationen über eine spezifische URL, welche intern genutzt wird, um nachzuvollziehen, wozu der Crawl gehört.
#The profiles for remote crawls, <a href="ProxyIndexingMonitor_p.html">indexing via proxy</a> and snippet fetches==Die Profile für Remote Crawl, <a href="ProxyIndexingMonitor_p.html">Indexierung per Proxy</a> und Snippet Abrufe
#cannot be altered here as they are hard-coded.==können nicht verändert werden, weil sie "hard-coded" sind.
YaCy knows 5 different ways to acquire web indexes. The details of these processes (1-5) are described within the submenu's listed==YaCy получает вэб-индекс пятью различными способами. Детали этих процессов (1-5) вы можете увидеть, выбрав пункты меню справа.
above which also will show you a table with indexing results so far. The information in these tables is considered as private,==Так как представленная информация содержит личные сведения,
so you need to log-in with your administration password.==то потребуется ввести пароль администратора.
Case (6) is a monitor of the local receipt-generator, the opposed case of (1). It contains also an indexing result monitor but is not considered private==Монитор (6) показывает локальный приём индекса, в отличие от монитора (1). Здесь также показываются результаты индексирования не содержащие личные данные,
<em>Use Case:</em> You get entries here, if you start a local crawl on the '<a href="CrawlStartExpert.html">Advanced Crawler</a>' page and check the==Вы берёте значения здесь, запускаете локальное индексирование на странице '<a href="CrawlStartExpert.html">Расширенная индексация</a>' и проверяете
'Do Remote Indexing'-flag, and if you checked the 'Accept Remote Crawl Requests'-flag on the '<a href="RemoteCrawl_p.html">Remote Crawling</a>' page.== флаг 'Выполнять удалённое индексирование', and if you checked the 'Accept Remote Crawl Requests'-flag on the '<a href="RemoteCrawl_p.html">Remote Crawling</a>' page.
Every page that a remote peer indexes upon this peer's request is reported back and can be monitored here.==Каждая страница, проиндексированная удалённым узлом отображается здесь.
This index transfer was initiated by your peer by doing a search query.==Передачи индекса были инициированы вашим узлом во время поискового запроса.
The index was crawled and contributed by other peers.==Индексация производилась другими узлами.
<em>Use Case:</em> This list fills up if you do a search query on the 'Search Page'==Здесь отображается список запросов, произведённых вами на странице поиска.
The url fetch was initiated and executed by other peers.==Полученные ссылки были иницированы и выполнены другими узлами.
These links here have been transmitted to you because your peer is the most appropriate for storage according to==Эти ссылки были переданы вам, потому что ваш узел более подходит для их хранения,
the logic of the Global Distributed Hash Table.==в соответствии с логикой глобальной DHT.
<em>Use Case:</em> This list may fill if you check the 'Index Receive'-flag on the 'Index Control' page==Этот список будет пополняться, если вы включите "Приём индекса" на странице "Настройка сети"
such pages are detected by Cookie-Use or POST-Parameters (either in URL or as HTTP protocol)==Такие страницы определяются по свойствам HTTP-заголовка (использование куки или HTTP-авторизации) или по параметрам POST (в адресе или передающиеся через HTTP-протокол)
These web pages had been crawled by your own crawl task.==Эти вэб-страницы были проиндексированы вашим узлом по вашему указанию.
<em>Use Case:</em> start a crawl by setting a crawl start point on the 'Index Create' page.==Запустите индексацию, указав начальную точку на странице "Индексирование/Сканер сети"
These pages had been indexed by your peer, but the crawl was initiated by a remote peer.==Эти страницы проиндексированы вашим узлом, но индексатор был инициирован удалённым узлом..
<em>Use Case:</em> This list may fill if you check the 'Accept Remote Crawl Requests'-flag on the '<a href="RemoteCrawl_p.html">Remote Crawling</a>' page==Этот список будет пополняться, если вы включите "Удалённое индексирование" на странице '<a href="RemoteCrawl_p.html">Удалённое индексирование</a>'.
These records had been imported from surrogate files in DATA/SURROGATES/in==Эти данные импортированы из замещающих файлов в DATA/SURROGATES/in
<em>Use Case:</em> place files with dublin core metadata content into DATA/SURROGATES/in or use an index import method==Поместите файлы с метаданными контента стандарта дублинского ядра в DATA/SURROGATES/in или используйте способ импортирования индекса
"Crawling" means that YaCy will download the given website, extract all links in it and then download the content behind these links.=="Индексирование" означает, что YaCy загрузит данные сайта, извлечёт все ссылки и загрузит содержимое по извлечённым ссылкам.
This is repeated as long as specified under "Crawling Depth".==Длительность индексирования зависит от заданной "глубины индексирования".
A crawl can also be started using wget and the==Индексирование можно также запустить, используя wget и
>post arguments<==>POST-аргументы<
> for this web page.==> на этой вэб-странице.
Click on this API button to see a documentation of the POST request parameter for crawl starts.==Нажмите для просмотра документации по параметрам POST-запросов для запуска индексирования.
>Crawl Job<==>Индексирование<
A Crawl Job consist of one or more start point, crawl limitations and document freshness rules.==Индексирование состоит из одной или более начальных точек, ограничений и правил индексирования документов.
One Start URL or a list of URLs:<br/>(must start with http:// https:// ftp:// smb:// file://)==Одна или несколько ссылок:<br/>(должна начинаться с http:// https:// ftp:// smb:// file://)
Define the start-url(s) here. You can submit more than one URL, each line one URL please.==Укажите одну или несколько начальных ссылок здесь. Несколько ссылок указывайте отдельными строками.
Each of these URLs are the root for a crawl start, existing start URLs are always re-loaded.==Каждая из этих ссылок загружается в начале индексирования, существующие ссылки всегда перезагружаются.
Other already visited URLs are sorted out as "double", if they are not allowed using the re-crawl option.==Уже посещённые ссылки сортируются как повторные, если не разрешена их переиндексация.
A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==Вэб-индексатор дважды сверяет все ссылки в интернете с внутренней базой данных. Если некоторые ссылки были найдены опять,
then the url is treated as double when you check the 'no doubles' option. A url may be loaded again when it has reached a specific age,== то ссылка считается повторной. В зависимости от возраста, ссылка может быть загружена повторно.
#to use that check the 're-load' option. When you want that this web crawl is repeated automatically, then check the 'scheduled' option.==Для автоматической проверки вы можете использовать планировщик.
#In this case the crawl is repeated after the given time and no url from the previous crawl is omitted as double.==В этом случае индексация повторяется после указанного времени и повторные ссылки пропускаются.
#The filter is an emacs-like regular expression that must match with the URLs which are used to be crawled;==Фильтр это emacs-подобное регулярное выражение, которое должно совпадать с ссылками для индексации;
#that must match with the URLs which are used to be crawled; default is 'catch all'.==которые должны совпадать с ссылками для индексации; по-умолчанию 'берутся все'.
Example: to allow only urls that contain the word 'science', set the must-match filter to '.*science.*'.==Например, для разрешения только ссылок, содержащих слово 'science' , нужно установить фильтр '.*science.*'.
You can also use an automatic domain-restriction to fully crawl a single domain.==Вы можете также использовать автоматическое ограничение домена при полном индексировании простого домена.
Attention: you can test the functionality of your regular expressions using the <a href="RegexTest.html">Regular Expression Tester</a> within YaCy</a>.==Внимание! Вы можете проверить правильность ваших регулярных выражений используя <a href="/RegexTest.html">тестер</a> в YaCy</a>.
#Must-Not-Match Filter==Фильтр "не должно совпадать"
#This filter must not match to allow that the page is accepted for crawling.==Dieser Filter muss nicht passen, um zu erlauben, dass die Seite zum crawlen akzeptiert wird.
#The empty string is a never-match filter which should do well for most cases.==Пустая строка означает фильтр "никогда не совпадать", который хорошо подходит в большинстве случаев.
If you don't know what this means, please leave this field empty.==Если вы не знаете, что это означает, то оставьте это поле пустым.
#Re-crawl known URLs:==Переиндексация повторных ссылок:
#It depends on the age of the last crawl if this is done or not: if the last crawl is older than the given==Это зависит от даты последнего индексирования, если он был или не был выполнен: если последнее индексирование старше, чем указанное
#Auto-Dom-Filter:==Фильтр авто-домена:
#This option will automatically create a domain-filter which limits the crawl on domains the crawler==Эта опция позволяет автоматически создавать фильтр, который ограничивает индексацию доменов.
#will find on the given depth. You can use this option i.e. to crawl a page with bookmarks while==будет искать на заданную глубину. Вы можете использовать эту опцию, например, для индексации страницы с закладками, во время
#restricting the crawl on only those domains that appear on the bookmark-page. The adequate depth==ограничения индексирования только доменов, которые указаны на странице закладок. Приемлемая глубина
#for this example 1.==для этого примера будет 1.
#The default value 0 gives no restrictions.==По-умолчанию задано значение 0 - без ограничений.
#Maximum Pages per Domain:==Максимум страниц на домен:
#Page-Count==Число страниц
You can limit the maximum number of pages that are fetched and indexed from a single domain with this option.==Вы можете ограничить максимальное число извлечённых и проиндексированных страниц одного домена с помощью этой опции.
You can combine this limitation with the 'Auto-Dom-Filter', so that the limit is applied to all the domains within==Вы можете совместить это ограничение с фильтром 'Авто-домен' так как это ограничение применяется ко всем доменам без
the given depth. Domains outside the given depth are then sorted-out anyway.== указания уровня. Домены за пределами указанного уровня сортируются в любом случае.
#dynamic URLs==динамические URL-ссылки
Document Cache<==Кэш документа<
Store to Web Cache==Хранить в вэб-кэше
This option is used by default for proxy prefetch, but is not needed for explicit crawling.==Эта опция используется по-умолчанию для прокси, но не используется для явного индексирования.
A questionmark is usually a hint for a dynamic page. URLs pointing to dynamic content should usually not be crawled.==Вопросительный знак обычно означает динамическую страницу. Ссылки, указывающие на динамический контент. обычно не индексируются.
However, there are sometimes web pages with static content that== Однако, иногда встречаются вэб-страницы со статическим содержимым, которое
is accessed with URLs containing question marks. If you are unsure, do not check this to avoid crawl loops.==доступно по ссылкам, содержащим вопросительный знак. Если вы не уверены, то не включайте эту опцию, чтобы избежать замкнутого индексирования.
#Following frames is NOT done by Gxxg1e, but we do by default to have a richer content. 'nofollow' in robots metadata can be overridden; this does not affect obeying of the robots.txt which is never ignored.==
Policy for usage of Web Cache==Политика использования вэб-кэша
The caching policy states when to use the cache during crawling:==Политика состояний кэширования, когда кэш используется во время индексации:
no cache==без кэша
if fresh==если свежий кэш
if exist==если кэш существует
cache only==только кэш
never use the cache, all content from fresh internet source;==Никогда не использовать кэш, весь контент из нового интернет-источника;
use the cache if the cache exists and is fresh using the proxy-fresh rules;==использовать кэш, если кэш существует и это новое использование правил прокси
use the cache if the cache exist. Do no check freshness. Otherwise use online source;==использовать кэш, если кэш существует. Не проверять на обновления. Иначе использовать интернет-источник;
never go online, use all content from cache. If no cache exist, treat content as unavailable==всегда оффлайн, использовать весь контент из кэша. Если кэш не существует, то считать что контент недоступен.
Max Depth for Snapshots==Максимальная глубина снимка
Multiple Snapshot Versions==Версии снимков
replace old snapshots with new one==заменить старые снимки новыми
add new versions for each crawl==добавить новые версии для каждого индексирования
Snapshots are xml metadata and pictures of web pages that can be created during crawling time.==Снимки состоят их XML-данных и изображений вэб-страниц и могут быть созданы во время индексирования.
The xml data is stored in the same way as a Solr search result with one hit and the pictures will be stored as pdf into subdirectories==XML-данные хранятся таким же образом, как и результаты поиска Solr; изображения сохраняются в формате pdf в директории
of HTCACHE/snapshots/. From the pdfs the jpg thumbnails are computed. Snapshot generation can be controlled using a depth parameter; that==HTCACHE/snapshots/. Из pdf создаются эскизы в формате jpg. Создание снимков регулируется параметром "глубина снимка".
means a snapshot is only be generated if the crawl depth of a document is smaller or equal to the given number here. If the number is set to -1,==Это означает, что снимки создаются только, если глубина индексирования документов низкая или равна заданному здесь значению. Если значение "-1",
no snapshots are generated.==то снимки не создаются.
These are limitations on the crawl stacker. The filters will be applied before a web page is loaded.==Ограничения работы индексатора. Фильтры применяются до загрузки страницы.
This defines how often the Crawler will follow links (of links..) embedded in websites.==Определяет, как часто индексатор будет идти по ссылкам (из ссылок ...) вэб-сайтов.
0 means that only the page you enter under "Starting Point" will be added==Ноль означает, что только начальная страница будет добавлена
to the index. 2-4 is good for normal indexing. Values over 8 are not useful, since a depth-8 crawl will==для индексации. 2-4 это нормальное индексирование. Значения более 8 использовать не целесообразно, поскольку такая глубина индексирования предполагает
index approximately 25.600.000.000 pages, maybe this is the whole WWW.==примерно 25.600.000.000 страниц в индексе, возможно это весь WWW.
also all linked non-parsable documents==также все связанные не-проанализированные документы
Unlimited crawl depth for URLs matching with==Неограниченная глубина индексирования для ссылок совпадающих с
Maximum Pages per Domain==Максимальное число страниц домена
>Use<==>Использовать<
>Page-Count<==>Страниц<
misc. Constraints==Разные ограничения
>Load Filter on URLs<==>Фильтр ссылок<
>Load Filter on IPs<==>Фильтр IP-адресов<
Must-Match List for Country Codes==Фильтр стран
Crawls can be restricted to specific countries. This uses the country code that can be computed from==Индексаторы могут быть запрещены для определённых стран. При этом используется код страны, который может быть вычислен по
the IP of the server that hosts the page. The filter is not a regular expressions but a list of country codes, separated by comma.==IP-адресу сервера, на котором размещена страница. Фильтр не использует регулярные выражения. Список кодов стран перечисляется через запятую.
no country code restriction==Oграничение по странам отсутствует
Filter on URLs==Фильтр ссылок
Document Filter==Фильтр документов
These are limitations on index feeder. The filters will be applied after a web page was loaded.==Ограничения на получение индекса. Фильтры применяются после загрузки вэб-страницы.
>Filter on URLs<==Фильтр ссылок<
The filter is a==Фильтр это
>regular expression<==>регулярное выражение<
that <b>must not match</b> with the URLs to allow that the content of the url is indexed.==которое <b>не должно совпадать</b> с ссылками, если контент по этой ссылке проиндексирован.
Filter on Content of Document<br/>(all visible text, including camel-case-tokenized url and title)==Фильтр содержимого документа<br/>(весь видимый текст, включая слитно написанные ссылки и заголовок)
For each host in the start url list, delete all documents (in the given subpath) from that host.==Для каждого хоста в начальном списке ссылок, удалять все документы (даже в подпапках) из хоста.
Do not delete any document before the crawl is started.==Не удалять любые документы перед началом индексирования.
Treat documents that are loaded==Считать загруженные документы
> ago as stale and delete them before the crawl is started.==> устаревшими, и удалять из перед началом индексирования.
After a crawl was done in the past, document may become stale and eventually they are also deleted on the target host.==Если индексирование было выполнено раньше, то документ может потерять актуальность и даже быть удалён из индексируемого сайта.
To remove old files from the search index it is not sufficient to just consider them for re-load but it may be necessary==Переиндексации недостаточно после удаления старых файлов из поискового индекса, но может быть необходимо,
to delete them because they simply do not exist any more. Use this in combination with re-crawl while this time should be longer.==так как старые файлы уже не существуют. Использование этой функции вместе с переиндексацией может занять много времени.
Double-Check Rules==Правила повторной проверки
No Doubles==Нет повторов
A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==Вэб-индексатор выполняет повторную проверку всех ссылок, найденных в интернете с внутренней базой данных. Если ссылки найдены опять,
then the url is treated as double when you check the 'no doubles' option. A url may be loaded again when it has reached a specific age,==то они считаются повторными, если вы включите опцию "Нет повторов". Ссылка может быть загружена опять, если она достигла определённого возраста.
to use that check the 're-load' option.==Для этого включите опцию "Повторная загрузка".
Treat documents that are loaded==Считать загруженные документы
> ago as stale and load them again. If they are younger, they are ignored.==> устаревшими и загрузить их снова. Если они свежее, то они игнорируются.
Never load any page that is already known. Only the start-url may be loaded again.==Никогда не загружать любую страницу, если она уже известна. Только начальная ссылка может быть загружена опять.
Robot Behaviour==Поведение робота
Use Special User Agent and robot identification==Использовать специальный User Agent и идентификацию робота
You are running YaCy in non-p2p mode and because YaCy can be used as replacement for commercial search appliances==Вы запустили YaCy в не-p2p режиме, поэтому YaCy может использован в качестве замены коммерческим поисковым системам
(like the GSA) the user must be able to crawl all web pages that are granted to such commercial plattforms.==(например, GSA). Пользователь должен иметь возможность индексировать все вэб-страницы, представленные коммерческими платформами.
Not having this option would be a strong handicap for professional usage of this software. Therefore you are able to select==Отсутствие этой опции может сильно припятствовать профессиональному использованию этой программы. Поэтому вы можете выбрать
alternative user agents here which have different crawl timings and also identify itself with another user agent and obey the corresponding robots rule.==альтернативные User-Agent'ты здесь. Они будут иметь различные задержки индексирования и также идентифицировать себя с другим User-Agent'ом и соблюдать соответствующие правила роботов.
Index Administration==Управление индексом
Do Local Indexing==Выполнить локальное индексирование
index text==Индекс текста
index media==Индекс медиа-файлов
This enables indexing of the webpages the crawler will download. This should be switched on by default, unless you want to crawl only to fill the==Разрешает индексирование вэб-страниц, пока индексатор производит загрузку. По-умолчанию включено.
Document Cache without indexing.==Кэш документов без индексирования.
Do Remote Indexing==Выполнить удалённое индексирование
This message will appear in the 'Other Peer Crawl Start' table of other peers.==Это сообщение будет отображаться в таблице других узлов в поле 'Другой узел начал индексирование'.
If checked, the crawler will contact other peers and use them as remote indexers for your crawl.==Если отмечено, то индексатор будет связываться с другими узлами и использовать их для удалённого индексирования.
If you need your crawling results locally, you should switch this off.==Отключите, если желаете получать результаты индексирования локально.
Only senior and principal peers can initiate or receive remote crawls.==Только старшие и главные узлы могут инициировать или принимать удалённую индексацию.
A YaCyNews message will be created to inform all peers about a global crawl==Сообщение YaCy может быть создано для информирования всех узлов о глобальном индексировании
so they can omit starting a crawl with the same start point.==поэтому они могут пропустить запуск индексирования с одной и той же начальной точки.
#This can be useful to circumvent that extremely common words are added to the database, i.e. "the", "he", "she", "it"... To exclude all words given in the file <tt>yacy.stopwords</tt> from indexing,==Это может быть полезно, чтобы не учитывать общие слова, добавленные в базу данных. Например, "он", "она", "это", "и", "или", "они" и так далее. Слова, указанные в файле <tt>yacy.stopwords</tt> исключаются из индексирования,
A crawl result can be tagged with names which are candidates for a collection request.==Результат индексирования может быть помечен с именами в кандидаты для запроса в хранилище.
These tags can be selected with the==Эти тэги могут быть указаны
#When an index domain is configured to contain intranet links,==Wenn eine Index Domain konfiguriert wurde die Intranet Links enthält,
#the intranet may be scanned for available servers.==kann dieses Intranet auf verfügbare Server gescannt werden.
#Please select below the servers in your intranet that you want to fetch into the search index.==Bitte in der folgenden Server Liste aus Ihrem Intranet auswählen, welche Sie in den Suchindex aufnehmen wollen.
#This network definition does not allow intranet links.==Diese Netzwerk Konfiguration erlaubt keine Intranet Links.
#A list of intranet servers is only available if you confiugure YaCy to index intranet targets.==Eine Liste mit Servern aus dem Intranet ist nur verfügbar, wenn Sie YaCy auch konfiguriert haben Intranetseiten zu indexieren.
#To do so, open the <a href="ConfigBasic.html">Basic Configuration</a> servlet and select the 'Intranet Indexing' use case.==Um diese Einstellung vorzunehmen, bitte im Servlet <a href="ConfigBasic.html">Basis Konfiguration</a> den Anwendungsfall 'Intranet Indexierung' auswählen.
Please enter a different IP range for another scan.==Пожалуйста, введите другой диапазон IP-адресов, для повторного сканирования.
Please wait...==Пожалуйста, подождите...
>Scan the network<==>Сканирование сети<
Scan Range==Диапазон сканирования
Scan sub-range with given host==Сканирование поддиапазона заданного хоста
Full Intranet Scan:==Полное сканирование интранета:
Do not use intranet scan results, you are not in an intranet environment!==Вы не можете использовать результаты сканирования интранета, так как вы не находитесь в интрасети!
accumulate scan results with access type "granted" into scan cache (do not delete old scan result)==накапливать результаты сканирования с типом доступа "разрешено" в кэше сканирования (старые результаты сканирования не удаляются)
scan and add all sites with granted access automatically. This disables the scan cache accumulation.==сканировать и добавить все доступные сайты автоматически. Это не работает при накоплении результатов в кэше сканирования.
Look every==Проверять каждые
>minutes<==>минут<
>hours<==>часов<
>days<==>дней<
again and add new sites automatically to indexer.==и добавлять новые сайты в индексатор автоматически.
Sites that do not appear during a scheduled scan period will be excluded from search results.==Сайты, которые будут недоступны во время запланированного сканирования, будут удалены из результатов поиска.
No more that two pages are loaded from the same host in one second (not more that 120 document per minute) to limit the load on the target server.==Не более чем две страницы с одного хоста в секунду (не более чем 120 документов в минуту), для ограничения загруженности удалённого сервера.
A second crawl for a different host increases the throughput to a maximum of 240 documents per minute since the crawler balances the load over all hosts.==Второе индексирование по другому хосту увеличивает пропускную способность индексирования до 240 документов в минуту с балансировкой нагрузки по всем хостам.
>High Speed Crawling<==>Высокая скорость индексирования<
A 'shallow crawl' which is not limited to a single host (or site)=='Медленное индексирование' не ограничено по одному хосту (или сайту)
can extend the pages per minute (ppm) rate to unlimited documents per minute when the number of target hosts is high.==скорость индексирования которого может быть увеличена на неограниченное, когда число удалённых хостов высока.
This can be done using the <a href="CrawlStartExpert.html">Expert Crawl Start</a> servlet.==Это можно сделать с помощью <a href="CrawlStartExpert.html">запуска расширенного индексирования</a>.
The scheduler on crawls can be changed or removed using the <a href="Table_API_p.html">API Steering</a>.==Расписание индексирования может быть изменено или удалено, используя <a href="Table_API_p.html">управление API</a>.
You are using the administration interface of your own search engine==YaCy можно использовать для организации собственного поиска. Ниже видео-демонстрация работы YaCy (на немецком языке).
You can create your own search index with YaCy==С YaCy вы можете организовать свой собственный поиск
To learn how to do that, watch one of the demonstration videos below==Чтобы узнать как это сделать, вы можете просмотреть видео демонстрации ниже (на немецком языке)
twitter this video==Отправить это видео в твиттер
Download from Vimeo==Загрузить из Vimeo
More Tutorials==Больше инструкций
Please see the tutorials on==Пожалуйста, смотрите больше инструкций на
previous result page==предыдущая страница результатов
automatic result retrieval==Вывод результатов
browser integration==Интеграция в браузер
after searching, click-open on the default search engine in the upper right search field of your browser and select 'Add "YaCy Search.."'==после поиска, кликните на поиске по умолчанию в правом верхнем углу браузера и выберите 'добавить Поиск YaCy'
search as rss feed==Представить как RSS-ленту
click on the red icon in the upper right after a search.==после поиска нажмите на красную иконку в правом верхнему углу.
this works good in combination with the '/date' ranking modifier.==Это хорошо работает вместе с модификатором ранжирования /date.
json search results==Результаты поиска в формате JSON
for ajax developers: get the search rss feed and replace the '.rss' extension in the search result url with '.json'==для AJAX-разработчиков: замените расширение rss-ленты с .rss на .json
#-----------------------------
#File: IndexCleaner_p.html
#---------------------------
Index Cleaner==Очистка индекса
>URL-DB-Cleaner==>Очистка базы данных URL-адресов
#ThreadAlive:
#ThreadToString:
Total URLs searched:==Всего найдено URL-адресов:
Blacklisted URLs found:==URL-адреса, найденные в черном списке:
Percentage blacklisted:==Процент находящихся в черном списке:
last searched URL:==последняя найденная URL-ссылка:
last blacklisted URL found:==последняя найденная URL-ссылка из черного списка:
>RWI-DB-Cleaner==>Очистка базы данных URL-адресов
RWIs at Start:==RWIs beim Start:
RWIs now:==RWIs jetzt:
wordHash in Progress:==Wort-Hash in Benutzung:
last wordHash with deleted URLs:==letzter Wort-Hash mit gelöschten URLs:
Number of deleted URLs in on this Hash:==Anzahl an gelöschten URLs in diesem Hash:
URL-DB-Cleaner - Clean up the database by deletion of blacklisted urls:==URL-DB-Aufräumer - Räumen Sie Ihre Datenbank auf, indem Sie URLs, die auf Ihrer Blacklist stehen, löschen:
Start/Resume==Начать/Продолжить
Stop==Остановить
Pause==Пауза
RWI-DB-Cleaner - Clean up the database by deletion of words with reference to blacklisted urls:==RWI-DB-Aufräumer - Räumen Sie Ihre Datenbank auf, indem Sie Wörter, die mit Ihrer Blacklist verbunden sind, löschen:
#-----------------------------
#File: IndexControlRWIs_p.html
#---------------------------
Reverse Word Index Administration==Управление обратным индексом слов
No reference size limitation (this may cause strong CPU load when words are searched that appear very often)==Без ограничений (это может сильно нагружать процессор, если искомые слова ищутся слишком часто)
delete also the referenced URL (recommended, may produce unresolved references==Удалить связанные URL-ссылки (Рекомендовано. Может привести с образованию неразрешённых ссылок
at other word indexes but they do not harm)==на другие индексы слов, но они не наносят вреда).
for every resolvable and deleted URL reference, delete the same reference at every other word where==Для каждой разрешённой и удалённой ссылки, удалить также ссылки на все другие слова, где
the reference exists (very extensive, but prevents further unresolved references)==ссылки существуют (предовращает появление неразрешённых ссылок в дальнейшем).
"Delete reference to selected URLs"=="Удалить ссылку"
"Delete Word"=="Удалить слово"
Blacklist Extension==Расширения черного списка
"Add selected URLs to blacklist"=="Добавить выбранные URL-адреса в черный список"
"Add selected domains to blacklist"=="Добавить выбранные домены в черный список"
#-----------------------------
#File: IndexControlURLs_p.html
#---------------------------
These document details can be retrieved as <a href="http://www.w3.org/TR/xhtml-rdfa-primer/" target="_blank">XHTML+RDFa</a>==Детали документа могут быть получены в виде <a href="http://www.w3.org/TR/xhtml-rdfa-primer/" target="_blank">XHTML+RDFa</a>.
document containg <a href="http://www.w3.org/RDF/" target="_blank">RDF</a> annotations in <a href="http://dublincore.org/" target="_blank">Dublin Core</a> vocabulary.==Документ содержит <a href="http://www.w3.org/RDF/" target="_blank">RDF-аннотации</a> в словаре <a href="http://dublincore.org/" target="_blank">дублинского ядра</a>.
The XHTML+RDFa data format is both a XML content format and a HTML display format and is considered as an important <a href="http://www.w3.org/2001/sw/" target="_blank">Semantic Web</a> content format.==Формат данных XHTML+RDFa в виде XML-содержания и HTML-отображения, рассматривается в качестве важного формата <a href="http://www.w3.org/2001/sw/" target="_blank">семантической сети</a>.
The same content can also be retrieved as pure <a href="api/yacydoc.xml?urlhash=#[urlhash]#">XML metadata</a> with DC tag name vocabulary.==Некоторое содержимое может быть также получено в виде <a href="api/yacydoc.xml?urlhash=">XML-метаданных</a> с словарём тэгов имён DC.
Click the API icon to see an example call to the search rss API.==Нажмите на иконку для просмотра API примера поиска по rss-ленте.
To see a list of all APIs, please visit the <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">API wiki page</a>.==Для просмотра списка всех API, пожалуйста, посетите <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">страницу API wiki</a>.
URL Database Administration==Управление базой данных ссылок
No entry found for URL-hash==Не найдено для хэш URL-адреса
#URL String</td>==URL-адрес</td>
#Hash</td>==Хэш</td>
#Description</td>==Описание</td>
#Modified-Date</td>==Дата изменения</td>
#Loaded-Date</td>==Дата загрузки</td>
#Referrer</td>==Referrer</td>
#Doctype</td>==Тип документа</td>
#Language</td>==Язык</td>
#Size</td>==Размер</td>
#Words</td>==Слова</td>
"Show Content"=="Показать контент"
"Delete URL"=="Удалить URL-адрес"
this may produce unresolved references at other word indexes but they do not harm==это может привести к неразрешённым ссылкам на другие слова индексов, но это не нанесёт вреда
"Delete URL and remove all references from words"=="Удалить ссылки, включая ссылки из слов"
#delete the reference to this url at every other word where the reference exists (very extensive, but prevents unresolved references)==löscht die Referenz zu dieser URL und jedem anderen Wort, wo die Referenz existiert (sehr umfassend, aber bewahrt vor ungelösten Referenzen)
Click on this API button to see an XML with information about the crawler latency and other statistics.==Нажмите на эту кнопку для просмотра в виде XML информации о задержке индексатора и другой статистики.
Content Integration: Retrieval from phpBB3 Databases==Интеграция контента: Извлечение данных из баз phpBB3
It is possible to extract texts directly from mySQL and postgreSQL databases.==Возможно извлечение текстовых данных напрямую из баз mySQL и postgreSQL.
This interface gives you access to the phpBB3 forums software content.==Здесь вы можете получить доступ к содержимому phpBB3-форумов.
If you read from an imported database, here are some hints to get around problems when importing dumps in phpMyAdmin:==Если вы желаете использовать импортированную базу данных, то вам пригодятся некоторые подсказки для устранения проблем, которые могут возникнуть при импортировании дампов в phpMyAdmin:
before importing large database dumps, set==перед импортированием большого дампа базы данных, установите
the following Line in phpmyadmin/config.inc.php and place your dump file in /tmp (Otherwise it is not possible to upload files larger than 2MB)==указанную ниже строку в phpmyadmin/config.inc.php и разместите ваш файл дампа в директории /tmp (иначе будет невозможна загрузка файлов размером больше 2МБайт)
deselect the partial import flag==снимите флаг частичного импорта
When an export is started, surrogate files are generated into DATA/SURROGATE/in which are automatically fetched by an indexer thread.==После начала экспорта, замещающие файлы создаются в DATA/SURROGATE/in и автоматически добавляются в индексатор.
All indexed surrogate files are then moved to DATA/SURROGATE/out and can be re-cycled when an index is deleted.==Все проиндексированные замещающие файлы перемещаются в DATA/SURROGATE/out и могут быть использованы повторно в случае удаления индекса.
YaCy can use external libraries to enable or enhance some functions. These libraries are not==YaCy может использовать внешние библиотеки, чтобы включить или улучшить некоторые функции. Эти библиотеки
included in the main release of YaCy because they would increase the application file too much.==не включены в главный релиз YaCy, так как они значительно увеличивают размер приложения.
You can download additional files here.==Вы можете загрузить дополнительные файлы здесь.
>Geolocalization<==>Геолокализация<
Geolocalization will enable YaCy to present locations from OpenStreetMap according to given search words.==Геолокализация позволит YaCy предоставить информацию о местоположении из OpenStreetMap, согласно поисковому запросу.
>GeoNames<==>Географические названия<
With this file it is possible to find cities all over the world.==С помощью этих библиотек возможен поиск городов по всему миру.
Content<==Содержание<
cities with a population > 1000 all over the world==Города с населением 1000 человек
cities with a population > 5000 all over the world==Города с населением 5000 человек
cities with a population > 100000 all over the world (the set is is reduced to cities > 100000)==Города с населением 100000 человек (установите для уменьшения жителей городов до > 100000)
>With this file it is possible to find locations in Germany using the location (city) name, a zip code, a car sign or a telephone pre-dial number.<==>С помощью этих библиотек возможен поиск мест, городов, почтовых индексов и телефонных кодов в Германии.<
The search index contains #[doccount]# documents. You can delete them here.==Поисковый индекс содержит #[doccount]# документов. Вы можете удалить их здесь.
Deletions are made concurrently which can cause that recently deleted documents are not yet reflected in the document count.==Удаление производится параллельно, поэтому недавно удалённые документы могут не учитываться в счетчике документов.
Delete by URL Matching<==Удаление совпадающих ссылок<
Delete all documents within a sub-path of the given urls. That means all documents must start with one of the url stubs as given here.==Удалить все документы, включая подпапки указанных ссылок. Заданная ссылка на все документы должна начинаться одинаково.
One URL stub, a list of URL stubs<br/>or a regular expression==Одна ссылка, список ссылок<br/>или регулярное выражение
Matching Method<==Способ поиска совпадений<
sub-path of given URLs==включая подпапки указанных ссылок
matching with regular expression==совпадение с регулярным выражением
"Simulate Deletion"=="Предпросмотр"
"no actual deletion, generates only a deletion count"=="Ничего не удаляется, показывается только возможное число документов для удаления"
"Engage Deletion"=="Подтвердить удаление"
"simulate a deletion first to calculate the deletion count"=="Сначала нажмите предпросмотр."
Delete by Solr Query<==Удаление запросов из базы Solr<
This is the most generic option: select a set of documents using a solr query.==Это наиболее универсальный вариант: выберите набор документов с помощью запроса в базу Solr.
#The local index currently consists of (at least) #[wcount]# reverse word indexes and #[ucount]# URL references.==Der lokale Index besteht zur Zeit aus (mindestens) #[wcount]# Wörtern und #[ucount]# URLs.
#Import Job with the same path already started.==Ein Import mit dem selben Pfad ist bereits gestartet.
#Always do a backup of your source and destination database before starting to use this import function.==Machen Sie immer ein Backup von Ihrer Quell- und Zieldatenbank, bevor Sie die Import-Funktion nutzen.
#The LoadedURL Database containing all loaded and indexed URLs==Die 'geladene URLs'-Datenbank, enthält alle geladenen und indexierten URLs
#The assortment directory containing parts of the word index.==Das Assortment-Verzeichnis, enthält Teile des Wort-Index.
#The words directory containing parts of the word index.==Das Wort-Verzeichnis, enthält Teile des Wort-Index.
#The assortment file that should be imported.==Die Assortment-Datei die importiert werden soll.
#The assortment file must have the postfix==Die Assortment-Datei muss den Suffix
#.db".==.db" haben.
#If you would like to import an assortment file from the <tt>PLASMADBACLUSTERABKP</tt>== Wenn Sie eine Assortment-Datei aus <tt>PLASMADBACLUSTERABKP</tt> importieren wollen,
#you have to rename it first.==müssen Sie sie zuerst umbenennen.
#>Notes:==>Anmerkung:
#Please note that the imported words are useless if the destination peer doesn't know==Bitte bedenken Sie, dass die importierten Wörter nutzlos sind, wenn der Ziel-Peer nicht weiß,
#the URLs the imported words belongs to.==zu welchen URLs sie gehören.
#Crawling Queue Import:==Crawler-Puffer-Import:
#Contains data about the crawljob an URL belongs to==Enthält Daten über den Crawljob, zu dem eine URL gehört
#The crawling queue==Der Crawler-Puffer
#Various stack files that belong to the crawling queue==Verschiedene Stack-Dateien, die zum Crawler-Puffer gehören
You can import <a href="https://dumps.wikimedia.org/backup-index-bydb.html" target="_blank">MediaWiki dumps</a> here. An example is the file==Вы можете импортировать <a href="https://dumps.wikimedia.org/backup-index-bydb.html" target="_blank">MediaWiki дампы</a> здесь. Пример этого файла
Dumps must be in XML format and may be compressed in gz or bz2. Place the file in the YaCy folder or in one of its sub-folders.==Дамп должен быть в формате XML и может быть сжат в gz или bz2.
When the import is started, the following happens:==После начала импорта произойдет следующее:
The dump is extracted on the fly and wiki entries are translated into Dublin Core data format. The output looks like this:==Дамп извлекается "на лету" и значения wiki переводятся в формат дублинского ядра. Результат выглядит примерно так:
Each 10000 wiki records are combined in one output file which is written to /DATA/SURROGATES/in into a temporary file.==Каждые 10000 записей Wiki формируются в один временный файл, который размещается в /DATA/SURROGATES/in.
When each of the generated output file is finished, it is renamed to a .xml file==После завершения импортирования полученный файл переименовывается в .xml.
Each time a xml surrogate file appears in /DATA/SURROGATES/in, the YaCy indexer fetches the file and indexes the record entries.==Каждый раз xml-файл появляется в /DATA/SURROGATES/in, а YaCy индексирует полученный файл.
When a surrogate file is finished with indexing, it is moved to /DATA/SURROGATES/out==После завершения индексирования файл перемещается в /DATA/SURROGATES/out.
You can recycle processed surrogate files by moving them from /DATA/SURROGATES/out to /DATA/SURROGATES/in==Вы можете повторно использовать замещающие файлы для индексирования, переместив их из /DATA/SURROGATES/out в /DATA/SURROGATES/in.
Results from the import can be monitored in the <a href="CrawlResults.html?process=7">indexing results for surrogates==Результаты импорта можно увидеть на странице <a href="CrawlResults.html?process=7">результатов индексации замещающего импорта.
This will submit only a single request as given here to a OAI-PMH server and imports records into the index==Это позволит отправить только один запрос на сервер OAI-PMH и импортировать записи в индекс
"Import OAI-PMH source"=="Импортировать источник OAI-PMH"
Source:==Источник:
Processed:==Выполнение:
records<==записей<
ResumptionToken:==Отметка возобновления:
Import failed:==Импорт не удался:
Import all Records from a server==Импортировать все записи с сервера
Import all records that follow according to resumption elements into index==Импортировать все записи, которые следуют из возобновляемых элементов, в индекс
In case that an index schema of the embedded/local index has changed, all documents with missing field entries can be indexed again with a reindex job.==В случае, если схема встроенного или локального индекса была изменена, все документы c потерянными значениями полей могут быть проиндексированы опять с помощью переиндексации.
#"! reindex works only with embedded Solr index !"=="! Переиндексация слов только с встроенным индексом базы Solr !"
#-----------------------------
#File: ContentAnalysis_p.html
#---------------------------
Content Analysis==Анализ содержимого
These are document analysis attributes.==Аттрибуты анализа документов.
Double Content Detection==Двойное определение содержимого
Double-Content detection is done using a ranking on a 'unique'-Field, named 'fuzzy_signature_unique_b'.==Двойное определение содержимого выполняется с помощью ранжирования поля 'fuzzy_signature_unique_b'.
This field is set during parsing and is influenced by two attributes for the <a href="https://lucene.apache.org/solr/5_5_2/solr-core/org/apache/solr/update/processor/TextProfileSignature.html" target="_blank">TextProfileSignature</a> class.==Это поле устанавливается во время анализа и описывается двумя аттрибутами класса<a href="https://lucene.apache.org/solr/5_5_2/solr-core/org/apache/solr/update/processor/TextProfileSignature.html" target="_blank"> TextProfileSignature</a>.
This is the minimum length of a word which shall be considered as element of the signature. Should be either 2 or 3.==Минимальная длина слова, которое должно рассматриваться в качестве элемента сигнатуры. Может быть 2 или 3
The quantRate is a measurement for the number of words that take part in a signature computation. The higher the number, the less=='quantRate' это количество слов, которые необходимы для вычисления сигнатуры. Чем выше это число, тем меньше
words are used for the signature.==слов используется для сигнатуры.
For minTokenLen = 2 the quantRate value should not be below 0.24; for minTokenLen = 3 the quantRate value must be not below 0.5.==Если 'minTokenLen' равен 2, то значение 'quantRate' должно быть не ниже 0.24; если 'minTokenLen' равен 3, то значение 'quantRate' должно быть не ниже 0.5.
"Set"=="Установить"
"Re-Set to default"=="Вернуть значения по-умолчанию"
It is possible to insert wiki pages into the YaCy index using a web crawl on that pages.==Возможно добавить wiki-страницы в индекс YaCy, используя индексирование этих вэб-страниц.
This guide helps you to crawl your wiki and to insert a search window in your wiki pages.==Это руководство поможет вам проиндексировать вашу wiki и добавить окно поиска на вашу wiki-страницу.
Retrieval of Wiki Pages==Извлечение wiki-страниц
The following form is a simplified crawl start that uses the proper values for a wiki crawl.==Следующая форма представляет собой упрощённое начало индексирования, с использованием правильных значений для индексации Wiki.
Just insert the front page URL of your wiki.==Добавьте ссылку на главную страницу вашей wiki.
After you started the crawl you may want to get back==После начала индексирования, возможно вы захотите вернуться назад
to this page to read the integration hints below.==на эту страницу, для чтения подсказок по интеграции, указанных ниже.
URL of the wiki main page==Ссылка на главную wiki-страницу
This is a crawl start point==(начальная точка индексирования)
"Get content of Wiki: crawl wiki pages"=="Индексировать Wiki-страницы"
Inserting a Search Window to MediaWiki==Добавьте окно поиска в MediaWiki
To integrate a search window into a MediaWiki, you must insert some code into the wiki template.==Для интеграции окна поиска в MediaWiki, вы должны добавить соответствующий код в wiki-шаблон.
There are several templates that can be used for MediaWiki, but in this guide we consider that==Здесь представлены некоторые шаблоны, которые вы можете использовать для MediaWiki, но это руководство мы рассмотрим
open skins/MonoBook.php==откройте skins/MonoBook.php
find the line where the default search window is displayed, there are the following statements:==найдите строку, где показано окно поиска по-умолчанию. Будет указан следующий текст:
Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==Проверьте все статические IP-адреса в фрагменте кода и замените их своими IP-адресами или именем вашего хоста.
You may want to change the default text elements in the code snippet==Вы можете изменить стандартный текст в фрагменте кода
To see all options for the search widget, look at the more generic description of search widgets at==Посмотреть все опции и описания виджета поиска вы можете на странице
Configuration of a phpBB3 Search==Конфигурация поиска в phpBB3
Integration in phpBB3==Интеграция в phpBB3
It is possible to insert forum pages into the YaCy index using a database import of forum postings.==Возможно добавить страницы форума в индекс YaCy, используя импорт базы данных постов форума.
This guide helps you to insert a search window in your phpBB3 pages.==Это руководство поможет вам добавить окно поиска на ваши phpBB3-страницы.
Retrieval of phpBB3 Forum Pages using a database export==Извлечение phpBB3-страниц форума, используя экспорт базы данных.
Forum posting contain rich information about the topic, the time, the subject and the author.==Посты форума содержат много информации о топиках, времени, теме и авторе.
This information is in an bad annotated form in web pages delivered by the forum software.==Эта информация находится в плохо аннотированной форме на вэб-страницах форума.
It is much better to retrieve the forum postings directly from the database.==Поэтому намного удобнее извлечь посты форума прямо из базы данных.
This will cause that YaCy is able to offer nice navigation features after searches.==После поиска это добавит хорошую навигацию.
YaCy has a phpBB3 extraction feature, please go to the <a href="ContentIntegrationPHPBB3_p.html">phpBB3 content integration</a> servlet for direct database imports.==Подробную информацию об извлечении phpBB3 смотрите на странице <a href="ContentIntegrationPHPBB3_p.html">интеграция содержимого phpBB3</a>.
Retrieval of phpBB3 Forum Pages using a web crawl==Для извлечения phpBB3-страниц используется индексация.
The following form is a simplified crawl start that uses the proper values for a phpbb3 forum crawl.==Следующая форма представляет собой упрощённое начало индексирования, с использованием правильных значений для индексации phpbb3-форума.
Just insert the front page URL of your forum. After you started the crawl you may want to get back==Добавьте ссылку на главную страницу вашего форума. После начала индексирования, возможно вы захотите вернуться назад
to this page to read the integration hints below.==на эту страницу, для чтения подсказок по интеграции, указанных ниже.
URL of the phpBB3 forum main page==Ссылка на главную страницу форума
This is a crawl start point==(начальная точка индексирования)
"Get content of phpBB3: crawl forum pages"=="Индексировать страницы форума"
Inserting a Search Window to phpBB3==Добавить окно поиска на phpBB3-форум
To integrate a search window into phpBB3, you must insert some code into a forum template.==Для интеграции окна поиска в phpBB3, вы должны добавить соответствующий код в шаблон форума.
There are several templates that can be used for phpBB3, but in this guide we consider that==Здесь представлены некоторые шаблоны, которые вы можете использовать для phpBB3, но это руководство мы рассмотрим
find the line where the default search window is displayed, thats right behind the <pre><div id="search-box"></pre> statement==найдите строку, где показано окно поиска по-умолчанию. Будет указан следующий текст: <pre><div id="search-box"></pre>
Insert the following code right behind the div tag==Вставьте следующий код за тэгом "div"
YaCy Forum Search==Поиск по форуму
;YaCy Search==;Поиск YaCy
Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==Проверьте все статические IP-адреса в фрагменте кода и замените их своими IP-адресами или именем вашего хоста.
You may want to change the default text elements in the code snippet==Вы можете изменить стандартный текст в фрагменте кода
To see all options for the search widget, look at the more generic description of search widgets at==Посмотреть все опции и описания виджета поиска вы можете на странице
Configuration of a RSS Search==Конфигурация поиска по RSS-лентам
Loading of RSS Feeds<==Загрузка RSS-лент<
RSS feeds can be loaded into the YaCy search index.==RSS-ленты могут быть загружены в поисковый индекс YaCy.
This does not load the rss file as such into the index but all the messages inside the RSS feeds as individual documents.==В индекс загружается не сам RSS-файл, а все сообщения внутри RSS-ленты, как отдельные документы.
URL of the RSS feed==Ссылка на RSS-ленту
>Preview<==>Предварительный просмотр:<
"Show RSS Items"=="Показать содержимое RSS"
Indexing==Индексирование:
Available after successful loading of rss feed in preview==Станет доступно после успешной загрузки RSS-ленты в предпросмотр.
#Here is a copy of your message, so you can copy it to save it for further attempts:==Hier ist eine Kopie Ihrer Nachricht. Sie können diese kopieren, speichern und es später nochmal versuchen:
#You cannot call this page directly. Instead, use a link on the <a href="Network.html">Network</a> page.==Sie können diese Seite nicht direkt aufrufen. Benutzen Sie stattdessen einen Link auf der <a href="Network.html">Netzwerk</a> Seite.
The information that is presented on this page can also be retrieved as XML.==Информация, указанная на этой странице, также может быть получена как XML.
Click the API icon to see the XML.==Нажмите на иконку API, чтобы увидеть XML.
To see a list of all APIs, please visit the <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">API wiki page</a>.==Для просмотра списка всех API, пожалуйста, посетите <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">страницу в Wiki</a>.
Network Overview==Обзор сети
Active Principal and Senior Peers==Активные главные и старшие узлы
<b>Count of Connected Senior Peers</b> in the last two days, scale = 1h==<b>Число подключенных старших узлов</b> за последние 2 дня, масштаб = 1 час
<b>Count of all Active Peers Per Day</b> in the last week, scale = 1d==<b>Число всех активных узлов в день</b> за последнюю неделю, масштаб = 1 день
<b>Count of all Active Peers Per Week</b> in the last 30d, scale = 7d==<b>Число всех активных узлов в неделю</b> за последние 30 дней, масштаб = 7 дней
<b>Count of all Active Peers Per Month</b> in the last 365d, scale = 30d==<b>Число всех активных узлов в месяц</b> за последний год, масштаб = 30 дней
send <strong>M</strong>essage/<br/>show <strong>P</strong>rofile/<br/>edit <strong>W</strong>iki/<br/>browse <strong>B</strong>log==Отправить сообщение (<strong>m</strong>)/<br/>Смотреть профиль (<strong>p</strong>)/<br/>Читать Wiki (<strong>w</strong>)/<br/>Блог (<strong>b</strong>)
The news service is controlled by several entry points:==Сообщения создаются в некоторых случаях:
A crawl start with activated remote indexing will automatically create a news entry.==Запуск индексирования с включением удалённого индексирования автоматически создаёт сообщение.
Other peers may use this information to prevent double-crawls from the same start point.==Другие узлы могут использовать эту информацию, чтобы исключить двойное индексирование из нескольких начальных точек.
A table with recently started crawls is presented on the Index Create - page==Таблица с недавно запущенным индексированием представлена на странице "Монитор индексирования".
A change in the personal profile will create a news entry. You can see recently made changes of==Изменение персонального профиля также создаёт сообщение. Вы можете увидеть недавно сделанные изменения в
profile entries on the Network page, where that profile change is visualized with a '*' beside the 'P' (profile) - selector.==профиле на странице сети. Изменение профиля отмечено звёздочкой '*' рядом с 'P' (профиль) выбор.
<strong>Incoming News (#[insize]#)</strong>: latest news that arrived your peer.==<strong>Входящие сообщения(#[insize]#)</strong>: Последние сообщения, полученные вашим узлом.
Only these news will be used to display specific news services as explained above.==Только эти сообщения будут использоваться для отображения определённых служб сообщений.
You can process these news with a button on the page to remove their appearance from the IndexCreate and Network page==Вы можете управлять этими сообщениями через кнопку на странице, для удаления их из Монитора индексирования и страницы сети.
<strong>Processed News (#[prsize]#)</strong>: this is simply an archive of incoming news that you removed by processing.==<strong>Обработанные сообщения (#[prsize]#)</strong>: Это простой архив входящих сообщений, удалённых вами при обработке.
<strong>Outgoing News (#[ousize]#)</strong>: here your can see news entries that you have created. These news are currently broadcasted to other peers.==<strong>Исходящие сообщения (#[ousize]#)</strong>: Здесь вы можете увидеть сообщения, созданные вами. Эти сообщения передаются другим узлам в данный момент.
<strong>Published News (#[pusize]#)</strong>: your news that have been broadcasted sufficiently or that you have removed from the broadcast list.==<strong>Опубликованные сообщения (#[pusize]#)</strong>: Ваши сообщения, переданные другим узлам или удалёнными вами из списка получателей.
"#(page)#::Process All News::Delete All News::Abort Publication of All News::Delete All News#(/page)#"=="#(page)#::Выполнить все сообщения::Удалить все сообщения::Прервать публикацию всех сообщений::Удалить все сообщения#(/page)#"
This is the time that the crawler idles when the proxy is accessed, or a local or remote search is done.==Это время ожидания индексатора при работе прокси-сервера, выполнении локального или удалённого поиска.
The delay is extended by this time each time the proxy is accessed afterwards.==Задержка выполняется каждый раз при доступности прокси.
This shall improve performance of the affected process (proxy or search).==Это должно улучшить производительность соответствующих процессов (прокси или поиск).
(current delta is==(Текущая разница
seconds since last proxy/local-search/remote-search access.)==секунд после последнего доступа к прокси/локальному поиску/удалённому поиску.)
This is the current size of the word caches.==Текущий размер кэша слов.
The indexing cache speeds up the indexing process, the DHT cache holds indexes temporary for approval.==Индексация кэша ускоряет общий процесс индексации. Кэш DHT содержит временно разрешённые индексы.
The maximum of this caches can be set below.==Максимальное значения кэшей может быть установлено ниже.
Maximum URLs currently assigned<br />to one cached word:==Максимальное число ссылок на одно кэшированное слово в данный момент:
This is the maximum size of URLs assigned to a single word cache entry.==Это максимальное число ссылок, описывающих одно кэшированное слово.
If this is a big number, it shows that the caching works efficiently.==Если число большое, то кэширование выполняется эффективно.
Maximum age of a word:==Максимальный возраст слова:
This is the maximum age of a word in an index in minutes.==Это максимальный возраст слова в индексе в минутах.
Minimum age of a word:==Минимальный возраст слова:
This is the minimum age of a word in an index in minutes.==Это минимальный возраст слова в индексе в минутах.
Maximum number of words in cache:==Максимальное число слов в кэше:
This is is the number of word indexes that shall be held in the==Это число слов индекса, находящихся
ram cache during indexing. When YaCy is shut down, this cache must be==в оперативной памяти во время индексирования. Когда YaCy выключается, содержимое кэша
flushed to disc; this may last some minutes.==сохраняется на диск; это может занять несколько минут.
#Initial space of words in cache:==Первоначальное число слов в кэше:
#This is is the init size of space for words in cache.==Начальный размер слов в кэше.
Enter New Cache Size==Установить новый размер кэша
Thread Pool Settings:==Настройка пула:
Thread Pool==Пул
Crawler Pool==Очередь индексатора
httpd Session Pool==Количество соединений
maximum Active==Максимум возможно
current Active==В данный момент
Enter new Threadpool Configuration==Установить новые значения
milliseconds<==мс<
kbytes<==Кбайт<
load<==Загрузка<
#-----------------------------
#File: PerformanceConcurrency_p.html
#---------------------------
Performance of Concurrent Processes==Производительность параллельных процессов
The network picture below shows how the latest search query was solved by asking corresponding peers in the DHT:==Изображение сети показывает, какие последние поисковые запросы были получены от узлов по DHT и решены.
red -> request list alive==Красный -> активный запрос
green -> request has terminated==Зелёный -> завершённый запрос
grey -> the search target hash order position(s) (more targets if a dht partition is used)<==Серый -> хэш цели поиска (больше целей, если используется DHT)<
Indexing with Proxy==Индексация через прокси-сервер
YaCy can be used to 'scrape' content from pages that pass the integrated caching HTTP proxy.==YaCy может индексировать кэшированные страницы с помощью прокси.
When scraping proxy pages then <strong>no personal or protected page is indexed</strong>;==<strong>Личные и защищённые страницы не индексируются</strong>!
# This is the control page for web pages that your peer has indexed during the current application run-time==Здесь показаны вэб-страницы проиндексированные вашим узлом во время с момента запуска приложения,
# as result of proxy fetch/prefetch.==в результате работы прокси-сервера.
# No personal or protected page is indexed==Личные или защищённые страницы не индексируются.
those pages are detected by properties in the HTTP header (like Cookie-Use, or HTTP Authorization)==Такие страницы определяются по свойствам HTTP-заголовка (использование куки или HTTP-авторизации)
or by POST-Parameters (either in URL or as HTTP protocol)==или по параметрам POST (в адресе или передающиеся через HTTP-протокол)
and automatically excluded from indexing.==и автоматически исключаются из индексирования.
You have to==Перед использованием прокси, сначала вы должны его
>setup the proxy<==>настроить<
before use.==.
Proxy Auto Config:==Автоматическая конфигурация прокси:
this controls the proxy auto configuration script for browsers at http://localhost:8090/autoconfig.pac==Используйте скрипт автоматической конфигурации прокси для браузеров http://localhost:8090/autoconfig.pac
.yacy-domains only==Только домены .yacy
whether the proxy should only be used for .yacy-Domains==Использование прокси-сервера только для доменов .yacy
A prefetch of 0 means no prefetch; a prefetch of 1 means to prefetch all==0 - отключение предварительной выборки, 1 - включение предварительной выборки.
embedded URLs, but since embedded image links are loaded by the browser==Предварительная выборка
this means that only embedded href-anchors are prefetched additionally.==будет действовать только в отношении href-якорей, так как включенные ссылки загружаются браузером.
Store to Cache==Сохранять в кэш
It is almost always recommended to set this on. The only exception is that you have another caching proxy running as secondary proxy and YaCy is configured to used that proxy in proxy-proxy - mode.==Рекомендуется отключать только в том случае, если вы используете второй кэширующий прокси-сервер и YaCy настроен на использование в режиме прокси-прокси.
Do Local Text-Indexing==Индексировать локальный текст
If this is on, all pages (except private content) that passes the proxy is indexed.==Если включено, то все страницы, за исключением личных, будут проиндексированы.
Do Local Media-Indexing==Индексировать локальные медиа-файлы
This is the same as for Local Text-Indexing, but switches only the indexing of media content on.==Если включено, то все медиа-файлы будут индексироваться.
Do Remote Indexing==Производить удалённое индексирование
If checked, the crawler will contact other peers and use them as remote indexers for your crawl.==Если включено, то для индексирования также будут использоваться удалённые узлы.
If you need your crawling results locally, you should switch this off.==Если вам необходимы данные о локальной индексации, то снимите этот флажок.
Only senior and principal peers can initiate or receive remote crawls.==Только старшие и главные узлы, могут участвовать в удалённой индексации.
Please note that this setting only take effect for a prefetch depth greater than 0.==Обратите внимание, что это действует только если отключена предварительная выборка.
Caching is now #(caching)#off::on#(/caching)#.==Кэширование #(caching)#выкл::вкл#(/caching)#.
Local Text Indexing is now #(indexingLocalText)#off::on==Индексация локальных текстовых файлов #(indexingLocalText)#выкл::вкл
Local Media Indexing is now #(indexingLocalMedia)#off::on==Индексация локальных медиа-файлов #(indexingLocalMedia)#выкл::вкл
Remote Indexing is now #(indexingRemote)#off::on==Удалённая индексация #(indexingRemote)#выкл::вкл
Cachepath is now set to '#[return]#'.</strong> Please move the old data in the new directory.==Путь хранения кэша установлен как '#[return]#'.</strong>.
Cachesize is now set to #[return]#MB.==Размер кэша установлен в #[return]#MB .
#Simply drag and drop the link shown below to your Browsers Toolbar/Link-Bar.==Ziehen Sie einfach den unten stehenden Link auf Ihre Browser Toolbar/Linkbar.
#If you click on it while browsing, the currently viewed website will be inserted into the YaCy crawling queue for indexing.==Wenn Sie, während Sie surfen, auf dieses Lesezeichen klicken, wird die gerade betrachtete Seite zum YaCy Crawler-Puffer hinzugefügt, um indexiert zu werden.
The document ranking influences the order of the search result entities.==Ранжирование документов влияет на результат поиска.
A ranking is computed using a number of attributes from the documents that match with the search word.==Ранжирование рассчитывается в использованием целого ряда аттрибутов документов в соответствии с искомым словом.
The attributes are first normalized over all search results and then the normalized attribute is multiplied with the ranking coefficient computed from this list.==Аттрибуты сначала объединяют все результаты поиска, а затем объединённый аттрибут умножается на коэффициент ранжирования, вычисленный из этого списка.
The ranking coefficient grows exponentially with the ranking levels given in the following table. If you increase a single value by one, then the strength of the parameter doubles.==Коэффициент ранжирования растёт экспоненциально с ранжированием уровней, указанных в таблице ниже. Если вы увеличиваете одно значение на другое, то параметр удваивается.
There are two ranking stages: first all results are ranked using the pre-ranking and from the resulting list the documents are ranked again with a post-ranking.==Есть два уровня ранжирования. Сначала все результаты оцениваются с использованием предварительного ранжирования, а затем из списка результатов документы ранжируются снова с пост-ранжированием.
The two stages are separated because they need statistical information from the result of the pre-ranking.==Два уровня разделены, так как они нуждаются в статистической информации из результата предварительного ранжирования.
Pre-Ranking==Предварительное ранжирование
>Post-Ranking<==>Пост-ранжирование<
"Set as Default Ranking"=="Установить ранжирование по-умолчанию"
"Re-Set to Built-In Ranking"=="Сбросить к исходным значениям"
These are ranking attributes for Solr. This ranking applies for internal and remote (P2P or shard) Solr access.==Это аттрибуты ранжирования для Solr. Это ранжирование применяется для внутренного и удалённого (P2P или раздельного) доступа к Solr.
#A Boost Function can combine numeric values from the result document to produce a number which is multiplied with the score value from the query result.==Eine Boost Funktion kann numerische Werte von Ergebnis-Dokumenten kombinieren, um eine Nummer zu erzeugen die mit den Scoring Werten der Suchergebnisse multipliziert wird.
#The Boost Query is attached to every query. Use this to statically boost specific content in the index.==Die Boost Abfrage wird an jede Abfrage angehängt. Verwenden sie diese Einstellung, um spezifischen Inhalt im Index zu boosten.
# means that documents, identified as 'double' are ranked very bad and appended to the end of all results (because the unique are ranked high).== bedeutet dass Dokumente die als 'double' identifiziert werden sehr schlecht geranked werden und an das Ende der Suchergebnisliste angehängt werden (weil die eindeutigen hoch geranked werden).
and look for boolean values (with suffix '_b') or tags inside string fields (with suffix '_s' or '_sxt').== и ищите логические значения (с суффиксом '_b') или тэги внутри строк (с суффиксом '_s' или '_sxt')
#This is the set of searchable fields. Entries without a boost value are not searched. Boost values make hits inside the corresponding field more important.==Das ist das Set der suchbaren Felder. Einträge ohne Boost Werte werden nicht durchsucht. Boost Werte erhöhen die Wichtigkeit der Treffer im passenden Feld.
The remote crawler is a process that requests urls from other peers.==Удалённое индексирование выполняется при получении ссылок для индексирования от других узлов.
Peers offer remote-crawl urls if the flag 'Do Remote Indexing'==Узлы отправляют удалённому индексатору ссылки с флагом 'Произвести удалённое индексирование'
Your peer cannot accept remote crawls because you need senior or principal peer status for that!==Для удалённого индексирования ваш узел должен быть старшим или главным!
Perform web indexing upon request of another peer.==Выполнять удалённое индексирование.
Load with a maximum of==Загружать максимум
pages per minute==страниц в минуту
"Save"=="Сохранить"
Crawl results will appear in the==Результаты индексирования доступны через
>Crawl Result Monitor<==>монитор результатов индексирования<
Peers offering remote crawl URLs==Узлы предлагающие ссылки для удалённого индексирования
If the remote crawl option is switched on, then this peer will load URLs from the following remote peers:==Если удалённое индексирование разрешено, то ваш узел будет загружать ссылки от следующих узлов:
>Name<==>Имя<
URLs for<br/>Remote<br/>Crawl==Ссылки для <br/>удалённых <br/>индексаторов
If you want to restore all settings to the default values,==Если вы хотите восстановить все значения настроек по-умолчанию,
but <strong>forgot your administration password</strong>, you must stop the proxy,==но <strong>забыли свой пароль администратора</strong>, то вы должны остановить YaCy,
delete the file 'DATA/SETTINGS/yacy.conf' in the YaCy application root folder and start YaCy again.==удалить файл 'DATA/SETTINGS/yacy.conf' в корневой папке программы и перезапустить YaCy.
Performance Settings of Busy Queues==Настройки производительности очередей и процессов
Viewer and administration for database tables==Просмотр и управление таблицами базы данных
Viewer for Cookies in Proxy==Просмотр сведений о куки (при использовании прокси-сервера)
Server Access Settings==Настройки доступа к серверу
Proxy Access Settings==Настройки доступа к прокси-серверу
Connection timeout in ms==Соединение в миллисекундах
means unlimited==означает неограниченный
HTTP Crawler Settings:==Настройки индексации по HTTP:
Maximum Filesize==Максимальный размер файла
FTP Crawler Settings==Настройки индексации по FTP
SMB Crawler Settings==Настройки индексации по SMB
Local File Crawler Settings==Настройки индексации локальных файлов
Maximum allowed file size in bytes that should be downloaded==Максимально разрешённый размер загружаемого файла
Larger files will be skipped==Файлы большего размера будут пропущены
Please note that if the crawler uses content compression, this limit is used to check the compressed content size==Обратите внимание, что если индексатор использует сжатый контент, то это ограничение проверяет размер сжатого контента
Submit==Сохранить
Changes will take effect immediately==Изменения будут применены немедленно
YaCy can use another proxy to connect to the internet. You can enter the address for the remote proxy here:==YaCy может использовать другой прокси для соединения с интернетом. Вы можете указать адрес удалённого прокси здесь.
Use remote proxy</label>==Использовать удалённый прокси</label>
Enables the usage of the remote proxy by yacy==Разрешает использование удалённого прокси
Use remote proxy for yacy <-> yacy communication==Использовать удалённый прокси для связи между узлами
Specifies if the remote proxy should be used for the communication of this peer to other yacy peers.==Разрешает использование удалённого прокси для связи вашего узла с другими узлами.
<em>Hint:</em> Enabling this option could cause this peer to remain in junior status.==<em>Совет:</em> Включение этой опции может сделать ваш узел младшим.
Use remote proxy for HTTPS==Использовать удалённый прокси для HTTPS-протокола
Specifies if YaCy should forward ssl connections to the remote proxy.==Разрешает использовать SSL-соединения для удалённого прокси.
Remote proxy host==Хост удалённого прокси
The ip address or domain name of the remote proxy==IP-адрес или домен удалённого прокси
No-proxy adresses==Не использовать для прокси адреса
IP addresses for which the remote proxy should not be used==IP-адреса, для которых удалённый прокси не используется
"Submit"=="Сохранить"
Changes will take effect immediately.==Изменения будут применены немедленно.
#-----------------------------
#File: Settings_ProxyAccess.inc
#---------------------------
Proxy Settings==Настройки прокси
Transparent Proxy==Прозрачный прокси
With this you can specify if YaCy can be used as transparent proxy.==Включите эту опцию, если вам нужно использовать YaCy в качестве прозрачного прокси.
Hint: On linux you can configure your firewall to transparently redirect all http traffic through yacy using this iptables rule==Совет: В линукс-системах вы можете настроить фаервол на прозрачное перенаправление всего трафика через YaCy с этими правилами iptables
With this you can specify if YaCy should support the HTTP connection keep-alive feature.==Включите эту опцию, если вам необходимо постоянное соединение с YaCy.
If unchecked, the proxy will act using Cache Fresh / Cache Stale rules. If checked, the cache is always fresh which means==Если не отмечено, то прокси будет использовать правила обновления кэша "новый/старый". Если отмечено, то кэш всегда будет обновляться, и
that a page is never loaded again if it was already stored in the cache. However, if the page does not exist in the cache, it will be loaded in any case.==страница не будет загружаться снова, если сохранен в кэше ранее. Однако, если страница не находится в кэше, то она будет загружена в любом случае.
Specifies if the proxy should send the <a href="http://www.w3.org/Protocols/rfc2616/rfc2616-sec14.html#sec14.45" target="_blank">Via</a>==Отметьте, если прокси должен отправлять заголовок <a href="http://www.w3.org/Protocols/rfc2616/rfc2616-sec14.html#sec14.45" target="_blank">Via-HTTP-Header</a>
http header according to RFC 2616 Sect 14.45.==, описанный в RFC 2616 раздел 14.45.
Specifies if the proxy should send the X-Forwarded-For http header.==Отметьте, если прокси должен отправлять заголовок "X-Forward-For"
"Submit"=="Сохранить"
Changes will take effect immediately.==Изменения будут применены немедленно.
HTTP Server Port==Порт HTTP
HTTPS Server Port==Порт HTTPS
"change"=="Изменить"
Version==версии
Proxy Access Settings==Настройки доступа к прокси
These settings configure the access method to your own http proxy and server.==Здесь вы можете настроить доступ к вашему http-прокси и серверу.
All traffic is routed throug one single port, for both proxy and server.==Весь трафик направляется на один порт для прокси и сервера.
Server/Proxy Port Configuration==Настройка порта сервера/прокси
The socket addresses where YaCy should listen for incoming connections from other YaCy peers or http clients.==Адреса сокетов, которые прослушиваются на входящие соединения от других узлов или http-клиентов.
You have four possibilities to specify the address:==Вы можете указать четыре адреса:
defining a port only==задать только порт
<em>e.g. 8090</em>==<em>например, 8090</em>
defining IP address and port==задать IP-адрес и порт
Hint: Dont forget to change your firewall configuration after you have changed the port.==Совет: Не забудьте изменить настройки фаервола после изменения порта.
Proxy and http-Server Administration Port==Порт прокси и http-сервера
Changes will take effect in 5-10 seconds==Изменения будут применены через 5-10 секунд
Server Access Restrictions==Ограничения доступа к серверу
You can restrict the access to this proxy/server using a two-stage security barrier:==Вы можете ограничить доступ к своему прокси/серверу используя двухуровневый барьер:
define an <em>access domain</em> with a list of granted client IP-numbers or with wildcards==установить <em>доступ к домену</em> списком предоставленных клиенту IP-адреса или символов
define an <em>user account</em> with an user:password - pair==установить <em>учётную запись пользователя</em> с логином и паролем
This is the account that restricts access to the proxy function.==Такая учётная запись будет иметь ограниченный доступ к функциям прокси.
You probably don't want to share the proxy to the internet, so you should set the==Если вы не желаете использовать общий прокси для интернета, вы можете указать
IP-Number Access Domain to a pattern that corresponds to you local intranet.==IP-адрес вашей локальной сети в фильтре ниже.
The default setting should be right in most cases. If you want, you can also set a proxy account==Настройки по-умолчанию подходят в большинстве случаев. Вы также можете установить учётную запись прокси
so that every proxy user must authenticate first, but this is rather unusual.==, чтобы сначала авторизовывался каждый пользователь прокси. Обычно это не практикуется.
server where you can host a seed-list file.==сервере, где вы храните сид-список.
General Settings:==Общие настройки:
If you enable one of the available uploading methods, you will become a principal peer.==В случае установки, ваш узел станет главным.
Your peer will then upload the seed-bootstrap information periodically,==Ваш узел загрузит начальную информацию о сиде,
but only if there have been changes to the seed-list.==только если сид-список будет изменён.
Upload Method==Способ загрузки
"Submit"=="Сохранить"
>URL<==>Ссылка<
Retry Uploading==Повторить загрузку
Here you can specify which upload method should be used.==Здесь вы можете указать желаемый способ загрузки.
Select 'none' to deactivate uploading.==Выберите 'none' для отключения загрузки.
The URL that can be used to retrieve the uploaded seed file, like==Ссылка для загрузки файла сида, наподобие
#-----------------------------
#File: Settings_Seed_UploadFile.inc
#---------------------------
Store into filesystem:==Загрузка из локальной папки:
You must configure this if you want to store the seed-list file onto the file system.==Локальный путь к сид-списку.
File Location==Путь к файлу
Here you can specify the path within the filesystem where the seed-list file should be stored.==Здесь вы можете указать путь к сид-списку.
"Submit"=="Сохранить"
#-----------------------------
#File: Settings_Seed_UploadFtp.inc
#---------------------------
Uploading via FTP:==Загрузка из FTP:
This is the account for a FTP server where you can host a seed-list file.==Это данные FTP-сервера, где вы разместили свой сид-список.
If you set this, you will become a principal peer.==В случае установки, ваш узел станет главным.
Your peer will then upload the seed-bootstrap information periodically,==Ваш узел загрузит начальную информацию о сиде,
but only if there had been changes to the seed-list.==только если сид-список будет изменён.
The host where you have a FTP account, like==Данные вашего FTP-сервера, наподобие
Path</label>==Путь</label>
The remote path on the FTP server, like==Удалённый путь FTP-сервера, наподобие
Missing sub-directories are NOT created automatically.==Отсутствующие подпапки не создаются автоматически.
Username==Имя пользователя
>Server<==>Сервер<
Your log-in at the FTP server==Ваш логин на FTP-сервере
Password</label>==Пароль</label>
The password==Ваш пароль
"Submit"=="Сохранить"
#-----------------------------
#File: Settings_Seed_UploadScp.inc
#---------------------------
Uploading via SCP:==Загрузка по SCP:
This is the account for a server where you are able to login via ssh.==Это учётная запись для сервера, на который вы сможете войти через ssh.
>Server<==>Сервер<
The host where you have an account, like 'my.host.net'==Хост, на котором вы имеете учётную запись, наподобие 'mein.host.net'
Server Port==Порт сервера
The sshd port of the host, like '22'==Sshd-порт хоста, наподобие '22'
Path</label>==Путь</label>
The remote path on the server, like '~/yacy/seed.txt'. Missing sub-directories are NOT created automatically.==Удалённый путь на сервере, наподобие '~/yacy/seed.txt'. Отсутствующие подпапки не создаются автоматически.
Username==Имя пользователя
Your log-in at the server==Ваш логин на сервере
Password</label>==Пароль</label>
The password==Ваш пароль
"Submit"=="Сохранить"
#-----------------------------
#File: Settings_ServerAccess.inc
#---------------------------
Server Access Settings==Настройки доступа к серверу
IP-Number filter:==Фильтр IP-адресов:
requires restart==потребуется перезапуск
Here you can restrict access to the server.==Здесь вы можете разрешить доступ к серверу.
By default, the access is not limited,==По-умолчанию доступ неограничен,
because this function is needed to spawn the p2p index-sharing function.==потому что это необходимо для начала передачи индекса посредством пиринга.
If you block access to your server (setting anything else than '*'), then you will also be blocked==Если вы заблокируете доступ к вашему серверу, то вы также заблокируете
from using other peers' indexes for search service.==использование поиска индексов другими узлами.
However, blocking access may be correct in enterprise environments where you only want to index your==Ограничение доступа может быть полезным в корпоративной сети, где требуется только индексирование
<strong>The staticIP can help that your peer can be reached by other peers in case that your==<strong>Использование постоянного IP-адреса может помочь вашему узлу соединиться с другиму узлами
peer is behind a firewall or proxy.</strong> You can create a tunnel through the firewall/proxy==в случае, если вы используете фаервол или прокси.</strong> Вы можете создать туннель через фаервол или прокси
(look out for 'tunneling through https proxy with connect command') and create==(найдите "туннелирование через HTTPS-прокси с подключением") и создайте
Settings Receipt:==Следующие параметры были изменены:
No information has been submitted==Изменения не производились.
Error with submitted information.==Ошибка при сохранении изменений.
Nothing changed.</p>==Изменения не производились.</p>
The user name must be given.==Укажите имя пользователя
Your request cannot be processed.==Ваш запрос не может быть выполнен.
The password redundancy check failed. You have probably misstyped your password.==Пароль указан неверно. Введите пароль еще раз.
Shutting down.</strong><br />Application will terminate after working off all crawling tasks.==Выключение.</strong><br />Приложение будет закрыто после завершения индексирования.
Your administration account setting has been made.==Ваша учётная запись настроена вручную.
Your new administration account name is #[user]#. The password has been accepted.<br />If you go back to the Settings page, you must log-in again.==Ваше новое имя пользователя #[user]#. Пароль принят.<br />Для возврата на страницу настроек, введите имя пользователя и пароль снова.
Seed Settings changed, but something is wrong.==Настройки сид-сервера изменены, но произошла ошибка.
Seed Uploading was deactivated automatically.==Загрузка сид-списка была отключена автоматически.
Please return to the settings page and modify the data.==Пожалуйста, вернитесь на страницу настроек и измените данные.
The remote-proxy setting has been changed==Настройки удалённого прокси изменены.
If you open any public web page through the proxy, you must log-in.==Для посещения любой внешней вэб-страницы через прокси, необходимо ввести имя пользователя и пароль.
The new setting is effective immediately, you don't need to re-start.==Новые настройки будут применены немедленно.
The submitted peer name is already used by another peer. Please choose a different name.</strong> The Peer name has not been changed.==Выбранное имя узла уже используется. Пожалуйста, выберите другое имя для вашего узла.</strong> Имя узла не изменено.
Your Peer Language is:==Язык вашего узла:
The submitted peer name is not well-formed. Please choose a different name.</strong> The Peer name has not been changed.
Peer names must not contain characters other than (a-z, A-Z, 0-9, '-', '_') and must not be longer than 80 characters.
#The new parser settings where changed successfully.==Новые настройки анализа были изменены успешно.
Parsing of the following mime-types was enabled:==Анализ следующих типов файлов разрешён:
Seed Upload method was changed successfully.==Способ загрузки сид-списка был успешно изменён.
You are now a principal peer.==Ваш узел теперь является главным.
Seed Upload Method:==Способ загрузки сид-списка:
Seed File URL:==Ссылка на сид-список:
Your proxy networking settings have been changed.==Настройки протокола HTTP изменены.
Transparent Proxy Support is:==Прозрачный прокси:
Connection Keep-Alive Support is:==Постоянное соединение:
Your message forwarding settings have been changed.==Настройки отправки сообщений были изменены.
Message Forwarding Support is:==Отправка сообщений:
Message Forwarding Command:==Команда для отправки сообщений:
Recipient Address:==Адрес получателя:
Please return to the settings page and modify the data.==Пожалуйста, вернитесь на страницу настроек и измените данные.
You are now <strong>event-based online</strong>.==Вы <strong>онлайн</strong>.
After a short while you should see the effect on the==Через некоторое время вы увидите изменения на
You are now in <strong>Cache Mode</strong>.==Вы <strong>используете только кэш</strong>.
Only Proxy-cache ist available in this mode.==Только кэш-прокси доступен в этом режиме.
After a short while you should see the effect on the==Через некоторое время вы увидите изменения на
You can now go back to the==Для возврата на страницу настроек системы, нажмите
Settings</a> page if you want to make more changes.==здесь</a>.
You can reach your YaCy server under the new location==Вы можете запустить ваш сервер YaCy из нового места::
Your crawler settings have been changed.==Настройки индексатора были изменены.
Generic Settings:==Общие настройки:
Crawler timeout:==Ожидание индексатора
http Crawler Settings:==Настройки индексации по HTTP:
Maximum HTTP Filesize:==Максимальный размер файла:
ftp Crawler Settings:==Настройки индексации по FTP:
Maximum SMB Filesize:==Максимальный размер файла:
Maximum file Filesize:==Максимальный размер файла:
Maximum FTP Filesize:==Максимальный размер файла:
smb Crawler Settings:==Настройки индексации по SMB:
#-----------------------------
#File: Settings_MessageForwarding.inc
#---------------------------
Message Forwarding==Отправка сообщения
With this settings you can activate or deactivate forwarding of yacy-messages via email.==Вы можете включать и отключать отправку сообщений YaCy по электронной почте.
Enabling/Disabling message forwarding via email.==Включение/отключение отправки сообщений на электронную почту
Forwarding Command==Команда для отправки
The command-line program that should be used to forward the message.<br />==Путь к программе, которая будет использоваться для отправки сообщения.<br />
Forwarding To==Отправить на
The recipient email-address.<br />==Адрес электронной почты получателя<br />
e.g.:==Например:
"Submit"=="Сохранить"
Changes will take effect immediately.==Изменения будут применены немедленно.
#-----------------------------
#File: sharedBlacklist_p.html
#---------------------------
Shared Blacklist==Общий чёрный список
Add Items to Blacklist==Добавить элементы в чёрный список
Unable to store the items into the blacklist file:==Невозможно сохранить элементы в файле чёрного списка:
YaCy-Peer "<span class="settingsValue">#[name]#</span>" not found.==Узел YaCy "<span class="settingsValue">#[name]#</span>" не найден.
not found or empty list.==не найден или пустой список.
Wrong Invocation! Please invoke with==Неправильный вызов! Пожалуйста, вызовите с
Blacklist source:==Blacklist Quelle:
Blacklist target:==Blacklist Ziel:
Blacklist item==Blacklist Eintrag
"select all"=="Выбрать все"
"deselect all"=="Отменить выбор"
value="add"==Значение="Добавить"
#-----------------------------
#File: Status.html
#---------------------------
Console Status==Консоль управления узлом
Log-in as administrator to see full status==Войти, как администратор
Welcome to YaCy!==Добро пожаловать в YaCy!
Your settings are _not_ protected!</strong>==Ваши настройки не защищены паролем!</strong>
Please open the <a href="ConfigAccounts_p.html">accounts configuration</a> page <strong>immediately</strong>==Пожалуйста перейдите по ссылке <a href="ConfigAccounts_p.html">Настройка аккаунта</a> <strong>немедленно</strong>
and set an administration password.==и установите пароль администратора.
You have not published your peer seed yet. This happens automatically, just wait.==Ваш узел еще не активен. Потребуется немного времени, пожалуйста, подождите.
The peer must go online to get a peer address.==Ваш узел должен быть онлайн для получения адресов других узлов.
You cannot be reached from outside.==Ваш узел недоступен извне.
A possible reason is that you are behind a firewall, NAT or Router.==Возможно, вы находитесь за брандмауэром, NAT или роутером.
But you can <a href="index.html">search the internet</a> using the other peers'==Но вы можете <a href="index.html">выполнять поиск</a>, с помощью других узлов
global index on your own search page.==на главной странице поиска.
We encourage you to open your firewall for the port you configured (usually: 8090),==Рекомендуется открыть доступ к используемому порту (обычно, 8090) на вашем брандмауэре,
or to set up a 'virtual server' in your router settings (often called DMZ).==или настройте "виртуальный сервер" на вашем роутере (настройка обычно называется DMZ).
Free disk space is lower than #[minSpace]#. Crawling has been disabled. Please fix==Свободное место на диске меньше, чем #[minSpace]#. Индексирование сайтов приостановлено. Пожалуйста, освободите место на диске.
Free memory is lower than #[minSpace]#. DHT-in has been disabled. Please fix==Свободной памяти меньше, чем #[minSpace]#. DHT-in отключен. Пожалуйста, исправьте.
Crawling is paused! If the crawling was paused automatically, please check your disk space.==Индексирование остановлено! Если индексирование остановлено не вами, то проверьте свободное место на диске.
Latest public version is==Последняя доступная версия
You can download a more recent version of YaCy. Click here to install this update and restart YaCy:==Вы можете загрузить самую последнюю версию программы. Нажмите здесь для установки этого обновления и перезапуска YaCy:
You are running a server in senior mode and you support the global internet index,==Ваш узел является старшим и вы участвуете в создании глобального индекса интернета,
which you can also <a href="index.html">search yourself</a>.==который вы также можете <a href="index.html">использовать для своего поиска</a>.
You have a principal peer because you publish your seed-list to a public accessible server==Ваш узел является главным и вы можете публиковать свой сид-лист на публично-доступном сервере,
where it can be retrieved using the URL==где он может быть получен с помощью ссылки:
Your Web Page Indexer is idle. You can start your own web crawl <a href="CrawlStartSite.html">here</a>==Ваш индексатор веб-сайтов остановлен. Вы можете начать индексирование сайта <a href="CrawlStartSite.html">по ссылке</a>
Your Web Page Indexer is busy. You can <a href="Crawler_p.html">monitor your web crawl</a> here.==Ваш индексатор веб-сайтов работает. Вы можете посмотреть его работу <a href="Crawler_p.html">по этой ссылке</a>
If you need professional support, please write to==Если вам нужна профессиональная поддержка, пожалуйста, напишите
For community support, please visit our==Для получения поддержки сообщества, пожалуйста, посетите наш
Used for YaCy -> YaCy communication:==Используется для YaCy -> YaCy коммуникаций:
WARNING:==ПРЕДУПРЕЖДЕНИЕ:
You do this on your own risk.==Вы делаете это на свой риск.
If you do this without YaCy running on a desktop-pc, this will possibly break startup.==Используйте эту опцию, только если YaCy запущен.
In this case, you will have to edit the configuration manually in DATA/SETTINGS/yacy.conf==Эту и другие опции вы можете включить вручную через файл DATA/SETTINGS/yacy.conf
Enabled: Updating to file==Включено: Обновление до файла
#-----------------------------
#File: Steering.html
#---------------------------
Steering</title>==Управление</title>
Checking peer status...==Проверка состояния узла...
Peer is online again, forwarding to status page...==Узел снова онлайн. Перенаправление на страницу управления узлом ...
Peer is not online yet, will check again in a few seconds...==Узел пока не онлайн. Проверю через несколько секунд...
No action submitted==Нет совершённых действий
Go back to the <a href="Settings_p.html">Settings</a> page==Вернуться назад на страницу <a href="Settings_p.html">настроек</a>
Your system is not protected by a password==Ваш узел не защищён паролем
Please go to the <a href="ConfigAccounts_p.html">User Administration</a> page and set an administration password.==Пожалуйста, перейдите на страницу <a href="ConfigAccounts_p.html">управления узлом</a> и установите пароль администратора.
You don't have the correct access right to perform this task.==Вы не имеете достаточно прав для выполнения этого действия.
Please log in.==Пожалуйста, авторизуйтесь.
You can now go back to the <a href="Settings_p.html">Settings</a> page if you want to make more changes.==Вы можете вернуться на страницу <a href="Settings_p.html">настроек</a>, если желаете продолжить изменения параметров узла.
See you soon!==До встречи!
Just a moment, please!==Пожалуйста, подождите!
Application will terminate after working off all scheduled tasks.==Приложение завершает свою работу.
Please send us feed-back!==Пожалуйста, отправляйте нам отзывы!
We don't track YaCy users, YaCy does not send 'home-pings', we do not even know how many people use YaCy as their private search engine.==Мы не следим за пользователями YaCy. Мы даже не знаем как много людей пользуются поиском YaCy для личных целей.
Therefore we like to ask you: do you like YaCy? Will you use it again... if not, why? Is it possible that we change a bit to suit your needs?==Спросите себя: за что вам нравится YaCy? Вы будете использовать его снова... или нет... почему?
If you are a professional user and you would like to use YaCy in your company in combination with consulting services by YaCy specialists, please see==Если вы желаете использовать YaCy для нужд своей компании, то, пожалуйста, смотрите
Then YaCy will restart.==А затем перезагрузится.
If you can't reach YaCy's interface after 5 minutes restart failed.==Если интерфейс YaCy не открылся в течение пяти минут, то запуск неудался.
Installing release==Устанавливается релиз
YaCy will be restarted after installation==YaCy будет перезапущен после установки.
#provided by YaCy peers with an URL in their profile. This shows only URLs from peers that are currently online.==bereitgestellt durch YaCy Peers mit einer URL in ihrem Profil. Es werden nur URLs von Peers angezeigt, die online sind.
>a list of home pages of yacy users<==>Список домашних страниц пользователей YaCy<
provided by YaCy peers using public bookmarks, link votes and crawl start points==automatisch erzeugt durch öffentliche Lesezeichen, Link-Bewertungen und Crawl-Startpunkte anderer YaCy-Peers
"Please enter a comment to your link recommendation. (Your Vote is also considered without a comment.)"=="Bitte geben Sie zu Ihrer Linkempfehlung einen Kommentar ein. (Ihre Stimme wird auch ohne Kommentar angenommen.)"
The information that is presented on this page can also be retrieved as XML.==Информация представленная на этой странице, также может быть получена в XML-формате.
Click the API icon to see the XML.==Нажмите на иконку API для просмотра XML.
To see a list of all APIs, please visit the ==Для просмотра списка всех API, пожалуйста, посетите
API wiki page==страницу API в Wiki
>Process Scheduler<==>Планировщик<
This table shows actions that had been issued on the YaCy interface==Эта таблица показывает, какие действия были выполнены с целью изменения настроек
to change the configuration or to request crawl actions.== или подачи запроса на выполнение сканирования.
These recorded actions can be used to repeat specific actions and to send them==Эти сохранённые действия могут быть использованы, чтобы повторить некоторые и добавить их
to a scheduler for a periodic execution.==в планировщик для периодического выполнения.
Scheduled actions are executed after the next execution date has arrived within a time frame of #[tfminutes]# minutes.==До выполнения запланированных действий осталось #[tfminutes]# минут.
The information that is presented on this page can also be retrieved as XML.==Информация представленная на этой странице, также может быть получена в XML-формате.
The information that is presented on this page can also be retrieved as XML.==Информация представленная на этой странице, также может быть получена в виде XML.
Click the API icon to see the XML.==Нажмите на иконку API для просмотра XML.
To see a list of all APIs, please visit the <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">API wiki page</a>.==Для просмотра списка всех API, пожалуйста, посетите <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">wiki-страницу API</a>.
All tag actions are applied to the sub-set of bookmarks defined by this query.==Все действия тэгов применяются к наборам закладок, определённых этим запросом.
Select tags to remove ...==Выберите тэги для удаления
Bookmark Importer==Импортёр закладок
If you put in your bookmarks here, you can access them anywhere where you have access to your YaCy peer. Think of it as your 'personal cloud' for bookmarking.==К хранимым здесь закладкам, вы будете иметь доступ из любого места, где вам будет доступен ваш узел. Ваше "персональное облако" закладок.
Tags are words that are attached to documents as metadata. It is possible to read all the documents and find the attached tags automatically.==Тэги слов прикрепляются к документам как метаданные, что делает возможным чтение всех документов и поиск прикреплённого тэга
Merging with existing tags==Объединить с существующими тэгами
Automatic Indexing==Автоматическая индексация
While doing the bookmark import, YaCy can push all URLs to the indexing process==Пока производится импорт закладок, YaCy может начать индексирование всех ссылок
No indexing==Нет индексации
>Index every bookmark entry<==>Индекс каждой закладки<
Index every bookmark entry plus all directly linked pages==Индекс всех закладок вместе со всеми ссылающимися страницами
Index all domains from all bookmarks completely==Индекс всех доменов из всех закладок полностью
The information that is presented on this page can also be retrieved as XML==Информация представленная на этой странице, также может быть получена в виде XML.
Click the API icon to see the RDF Ontology definition for this vocabulary.==Нажмите на иконку API для просмотра определения онтологии RDF для этого словаря.
To see a list of all APIs, please visit the <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">API wiki page</a>.==Для просмотра списка всех API, пожалуйста, посетите <a href="http://www.yacy-websuche.de/wiki/index.php/Dev:API" target="_blank">страницу API Wiki</a>.
Vocabulary Administration==Управление словарём
Vocabularies can be used to produce a search navigation. A vocabulary must be created before content is indexed.==Словари могут использоваться при выполнении навигации по поиску. Словарь должен быть создан до индексации содержимого сайта.
The vocabulary is used to annotate the indexed content with a reference to the object that is denoted by the term of the vocabulary.==Словарь используется для комментирования проиндексированного содержимого с ссылкой на объект, которому присвоено значение из словаря.
The object can be denoted by a url stub that, combined with the term, becomes the url for the object.==Объект может обозначаться законченной ссылкой, в сочетании с ссылкой на объект.
It is possible to produce a vocabulary out of the existing search index. This is done using a given 'objectspace' which you can enter as a URL Stub.==Возможно создание словаря из существующего индекса поиска. Это делается через использование заданного 'объекта', который может быть введён как законченная ссылка.
This stub is used to find all matching URLs. If the remaining path from the matching URLs then denotes a single file, the file name is used as vocabulary term.==Это используется для поиска всех совпадающих ссылок. Если оставшийся путь из совпадающих ссылок обозначает один файл, то имя файла используется в качестве значения словаря.
This works best with wikis. Try to use a wiki url as objectspace path.==Это лучше работает с Wiki . Попробуйте использовать wiki-ссылку в качестве объекта.
Click on this API button to see an XML with information about the crawler status==Нажмите для просмотра XML-файла с информацией о состоянии индексатора.
>Crawler<==>Индексатор<
>Queues<==>Очереди индексатора<
>Queue<==>Очередь<
Pause/==Старт/
Resume==Стоп
Crawler PPM==Скорость индексатора
Error with profile management. Please stop YaCy, delete the file DATA/PLASMADB/crawlProfiles0.db==Ошибка профиля. Пожалуйста, остановите YaCy, удалите файл DATA/PLASMADB/crawlProfiles0.db
and restart.==и перезапустите программу.
Error:==Ошибка:
Application not yet initialized. Sorry. Please wait some seconds and repeat==Приложение не запущено. Подождите несколько секунд и повторите.
you can delete them <a href="IndexCreateQueues_p.html?stack=LOCAL">here</a>.<br />== то вы можете удалить их <a href="IndexCreateQueues_p.html?stack=LOCAL">здесь</a>.<br>
The data that is visualized here can also be retrieved in a XML file, which lists the reference relation between the domains.==Эти данные, также могут быть получены в виде XML-файла с перекрёстными ссылками между доменами.
With a GET-property 'about' you get only reference relations about the host that you give in the argument field for 'about'.==Указав параметр "GET" 'about' вы получите только перекрёстные ссылки о хосте, которые указан в поле 'about'.
With a GET-property 'latest' you get a list of references that had been computed during the current run-time of YaCy, and with each next call only an update to the next list of references.==Указав параметр GET" 'latest' вы получите список ссылок вычисленных во время текущей работы YaCy, обновляющийся при каждом следующем вызове.
Click the API icon to see the XML file.==Нажмите на иконку API для просмотра XML-файла.
To see a list of all APIs, please visit the==Для просмотра списка всех API, пожалуйста, посетите
This table contains a short description of the tags that can be used in the Wiki and several other servlets==Эта таблица содержит короткое описание тэгов, которые могут быть использованы в wiki и в некоторых других сервлетах
of YaCy. For a more detailed description visit the==в YaCy. Если вам необходимо более детальное описание тэгов, то посетите
These tags create headlines. If a page has three or more headlines, a table of content will be created automatically.==Эти тэги создают заголовки. Если на странице есть три и более заголовков, то оглавление будет создано автоматически.
Headlines of level 1 will be ignored in the table of content.==Заголовки первого уровня пропускаются в оглавлении.
These tags create stressed texts. The first pair emphasizes the text (most browsers will display it in italics),==Эти тэги создают подчёркнутый текст. Первая пара делает текст подчёркнутым (большинство браузеров отображают это курсивом),
the second one emphazises it more strongly (i.e. bold) and the last tags create a combination of both.==второе подчёркивание более выраженно (выделяется жирным) и последний тэг объединяет два предыдущих.
Text will be displayed <span class="strike">stricken through</span>.==Текст будет отображаться <span class="strike">перечёркнутым</span>.
Text will be displayed <span class="underline">underlined</span>.==Текст будет отображаться <span class="underline">подчёркнутым</span>.
Lines will be indented. This tag is supposed to mark citations, but may as well be used for styling purposes.==Линии будут с отступом. Этот тэг служит для выделения цитат, но может быть использован для создания стиля страницы.
#point==точка
These tags create a numbered list.==Эти тэги создают пронумерованный список.
#something<==любой<
#another thing==другой
#and yet another==произвольный
#something else==текст
These tags create an unnumbered list.==Эти тэги создают ненумерованный список.
This tag creates links to other pages of the wiki.==Этот тэг создаёт ссылки на другие страницы Wiki.
This tag displays an image, it can be aligned left, right or center.==Этот тэг служит для показа изображения, которое может быть выровнено по правую сторону, по левую или по центру.
This tag displays a Youtube or Vimeo video with the id specified and fixed width 425 pixels and height 350 pixels.==Этот тэг служит для добавления видео с Youtube или Vimeo с заданным идентификатором и заданной шириной 425 пикселей и высотой 350 пикселей.
i.e. use==Например
to embed this video:==добавит это видео:
These tags create a table, whereas the first marks the beginning of the table, the second starts==Эти тэги создают таблицу, где первые знаки начинают таблицу, вторые начинают
a new line, the third and fourth each create a new cell in the line. The last displayed tag==новую линию, третий и четвёртый создают новый отрезок линии. Последний показанный тэг
#The escape tags will cause all tags in the text between the starting and the closing tag to not be treated as wiki-code.==Durch diesen Tag wird der Text, der zwischen den Klammern steht, nicht interpretiert und unformatiert als normaler Text ausgegeben.
A text between these tags will keep all the spaces and linebreaks in it. Great for ASCII-art and program code.==Текст между этими тэгами будет включать все пробелы и переносы. Хорошо подходит для программного кода и ASCII-графики.
If a line starts with a space, it will be displayed in a non-proportional font.==Если линия начинается с пробела, то это может быть отображено непропорциональным шрифтом.
#url description==описание ссылки
This tag creates links to external websites.==Этот тэг создаёт ссылки на внешние сайты.
This search result can also be retrieved as RSS/<a href="http://www.opensearch.org" target="_blank">opensearch</a> output.==Результат поиска может быть отправлен в RSS-ленту/<a href="http://www.opensearch.org">OpenSearch</a>.
This search result can also be retrieved as RSS/<a href="http://www.opensearch.org" target="_blank">opensearch</a> output.==Результат поиска может быть отправлен в RSS-ленту/<a href="http://www.opensearch.org">OpenSearch</a>.
Searching the web with this peer is disabled for unauthorized users. Please==Поиск с помощью этого узла невозможен для неавторизованных пользователей. Пожалуйста,
>log in<==>войдите<
as administrator to use the search function==под своей учётной записью, для использования поиска.
Location -- click on map to enlarge==Местоположение -- Нажмите на карту для увеличения
Your search is done using peers in the YaCy P2P network.==Ваш поиск выполняется с использованием узлов P2P-сети YaCy.
You can switch to 'Stealth Mode' which will switch off P2P, giving you full privacy. Expect less results then, because then only your own search index is used.==Вы можете перейти в режим Стелс, который отключит использование P2P, но обеспечит вашу полную анонимность. В этом случае результатов поиска будет меньше, потому что поиск будет осуществляться только в локальном индексе.
Your search is done using only your own peer, locally.==Поиск выполняется только в вашем локальном индексе.
You can switch to 'Peer-to-Peer Mode' which will cause that your search is done using the other peers in the YaCy network.==Вы можете перейти в режим P2P, который позволит производить поиск с использованием других узлов сети YaCy.
"You just started a YaCy peer!"=="Вы запустили узел YaCy!"
"As a first-time-user you see only basic functions. Set a use case or name your peer to see more options. Start a first web crawl to see all monitoring options."=="Как начинающий пользователь, вы видите только основные функции. Выберите вариант использования или установите имя вашего узла для просмотра других опций. Запустите вэб-индексацию для просмотра функций мониторинга."
"You did not yet start a web crawl!"=="Вы не запустили вэб-индексацию!"
"You do not see all monitoring options here, because some belong to crawl result monitoring. Start a web crawl to see that!"=="Вы не видите всех функций мониторинга здесь, потому что нет результатов индексирования. Запустите вэб-индексацию!"
First Steps==Первые шаги
Use Case & Account==Учётные записи и варианты использования
Load Web Pages, Crawler==Индексирование сайта
RAM/Disk Usage & Updates==Использование памяти и обновление системы
#PLEASE REPLACE THIS PAGE BY PUTTING A FILE index.html INTO THE PATH==BITTE ERSETZEN SIE DIESE SEITE, INDEM SIE EINE DATEI MIT DEM NAMEN index.html IM VERZEICHNIS
#YaCy-UI is going to be a JavaScript based client for YaCy based on the existing XML and JSON API.==YaCy-UI wird ein in JavaScript geschriebener Client für YaCy, der auf der existierenden XML und JSON API aufbaut.
#YaCy-UI is at most alpha status, as there is still problems with retriving the search results.==YaCy-UI ist bestenfalls im Alpha Stadium, da es immer noch Probleme beim Abholen der Suchergebnisse gibt.
#I am currently changing the backend to a more application friendly format and getting good results with it (I will check that in some time after the stable release 0.7).==Ich ändere gerade das Backend in ein andwendungsfreundlicheres Format und bekomme gute Ergebnisse damit (Ich werde die Änderungen einige Zeit nach der Veröffentlichung der stabilen Version 0.7 einchecken).
#For now have a look at the bookmarks, performance has increased significantly, due to the use of JSON and Flexigrid!==Aktuell können Sie sich die Lesezeichen ansehen - Die Performance hat sich signifikant gebessert durch die Verwendung von JSON und Flexigrid!