Работа Яси на слабом ресурсе

Я поставил YaCy на удаленном виртуальном сервере со следующими параметрами:
Процессор: 1 ядро, 1GHz
память: 1Gb
диск: 32Gb

Для Яси было выделено:
RAM: 870Mb, минимум: 40Mb
диск D: 26Mb

Версия Яси: 1.924/10079

Целевая задача: длительное индексирование русскозычной части Интернета (а не отдельных избранных сайтов).

Я взял стартовым адресом один из рейтингов Рунета, страницы которого содержали около 4 тыс ссылок на различные сайты.

Я запустил краулер в режиме “Expert Crawl”, установив “Unlimited crawl depth for URLs matching with” для доменов ru и su (было написано корректное регулярное выражение).

По моим предположениям, краулер должен был отправиться в длительное блуждание по всему Рунету. Однако, похоже он пошел параллельно по всем ссылкам, которые нашел на стартовом сайте. Это было видно через “Index Browser”.
Очень скоро он исчерпал всю выделенную память и остановился.

Я экспериментировал около 3 месяцев, и ни разу краулер не проработал самостоятельно более суток. Требовался ручной сброс переполнения памяти, иногда очистка индекса, иногда полный рестарт.

Сообщите пожалуйста, каковы должны быть настройки для выше указанных условий, чтобы краулер продолжал работать пусть медленно, но автономно и стабильно, не требуя постоянного ручного вмешательства?

People, why doesn’t anyone answer me? More than a month has passed.
After all, you have your own peer - how did you set it up? Thousands of peers are working in the network.
Why doesn’t anyone want to tell?

Previously, the forum allowed to write in any language.
Just in case, I give a translation of my post:

================================

I put YaCy on a remote virtual server with the following parameters:
Processor: 1 core, 1GHZ
Memory: 1GB
Disk: 32GB

For YaCy it was highlighted:
RAM: 870MB, minimum: 40MB
Disk D: 26MB

YaCy version: 1.924/10079

Target task: prolonged indexing of the Russian-language part of the Internet (and not individual selected sites).

I took one of the Runet ratings as a starting address, the pages of which contained about 4 thousand links to various sites.

I launched Crawler in the “Expert Crawl” mode by installing “Unlimited Crawl Depth for urls Matching with” for domains RU and SU (the correct regular expression was written).

According to my assumptions, Crawler was supposed to go on long wandering throughout the Runet. However, it seems he went parallel of all the links that he found on the starting site. This was evident through the Index Browser.
Very soon, he exhausted all the allocated memory and paused.

I experimented for about 3 months, and Crawler never worked on his own for more than a day. A manual reset of memory exhausted was required, sometimes the cleaning of the index, sometimes a complete restart.

Please tell me what the settings should be for the above conditions, so that Crawler continues to work, albeit slowly, but autonomously and stably, without requiring incessant manual intervention?