aboutsummaryrefslogtreecommitdiff
path: root/documentation/content/ru/books/handbook/zfs
diff options
context:
space:
mode:
Diffstat (limited to 'documentation/content/ru/books/handbook/zfs')
-rw-r--r--documentation/content/ru/books/handbook/zfs/_index.adoc14
-rw-r--r--documentation/content/ru/books/handbook/zfs/_index.po115
2 files changed, 93 insertions, 36 deletions
diff --git a/documentation/content/ru/books/handbook/zfs/_index.adoc b/documentation/content/ru/books/handbook/zfs/_index.adoc
index 83fa423f50..5b0870995a 100644
--- a/documentation/content/ru/books/handbook/zfs/_index.adoc
+++ b/documentation/content/ru/books/handbook/zfs/_index.adoc
@@ -55,7 +55,7 @@ ZFS — это продвинутая файловая система, разр
ZFS имеет три основные цели проектирования:
-* Целостность данных: Все данные включают crossref:zfs[zfs-term-checksum,контрольную сумму]. ZFS вычисляет контрольные суммы и записывает их вместе с данными. При последующем чтении этих данных ZFS пересчитывает контрольные суммы. Если контрольные суммы не совпадают, что означает обнаружение одной или нескольких ошибок данных, ZFS попытается автоматически исправить ошибки, если доступны двойные-, зеркальные- или блоки четности.
+* Целостность данных: Все данные включают crossref:zfs[zfs-term-checksum,контрольную сумму]. ZFS вычисляет контрольные суммы и записывает их вместе с данными. При последующем чтении этих данных ZFS пересчитывает контрольные суммы. Если контрольные суммы не совпадают, что означает обнаружение одной или нескольких ошибок данных, ZFS попытается автоматически исправить ошибки, если доступны двойные-, зеркальные- или блоки чётности.
* Объединенное хранилище: добавление физических устройств хранения в пул и выделение пространства из этого общего пула. Пространство доступно для всех файловых систем и томов и увеличивается за счет добавления новых устройств хранения в пул.
* Производительность: механизмы кэширования обеспечивают повышенную производительность. crossref:zfs[zfs-term-arc,ARC] — это продвинутый кэш для чтения, основанный на оперативной памяти. ZFS предоставляет второй уровень кэша для чтения на основе диска — crossref:zfs[zfs-term-l2arc,L2ARC], а также кэш для синхронной записи на основе диска под названием crossref:zfs[zfs-term-zil,ZIL].
@@ -310,7 +310,7 @@ storage 26320512 0 26320512 0% /storage
storage/home 26320512 0 26320512 0% /home
....
-Настройка RAID-Z завершена. Для добавления ежедневных отчетов о состоянии созданных файловых систем в ночные запуски man:periodic[8] добавьте следующую строку в [.filename]#/etc/periodic.conf#:
+Настройка RAID-Z завершена. Для добавления ежедневных отчётов о состоянии созданных файловых систем в ночные запуски man:periodic[8] добавьте следующую строку в [.filename]#/etc/periodic.conf#:
[.programlisting]
....
@@ -1705,7 +1705,7 @@ vi.recover
[[zfs-zfs-snapshot-snapdir]]
==== Восстановление отдельных файлов из снимков
-Снимки хранятся в скрытом каталоге родительского набора данных: [.filename]#.zfs/snapshots/имя_снимка#. По умолчанию эти каталоги не отображаются даже при выполнении стандартной команды `ls -a`. Несмотря на то, что каталог не виден, доступ к нему осуществляется как к обычному каталогу. Свойство `snapdir` определяет, будут ли эти скрытые каталоги отображаться в списке содержимого директории. Установка свойства в значение `visible` позволяет им появляться в выводе команды `ls` и других команд, работающих с содержимым каталогов.
+Снимки хранятся в скрытом каталоге родительского набора данных: [.filename]#.zfs/snapshots/имя_снимка#. По умолчанию эти каталоги не отображаются даже при выполнении стандартной команды `ls -a`. Несмотря на то, что каталог не виден, доступ к нему осуществляется как к обычному каталогу. Свойство `snapdir` определяет, будут ли эти скрытые каталоги отображаться в списке содержимого каталога. Установка свойства в значение `visible` позволяет им появляться в выводе команды `ls` и других команд, работающих с содержимым каталогов.
[source, shell]
....
@@ -1793,7 +1793,7 @@ NAME PROPERTY VALUE SOURCE
camino/home/joenew origin - -
....
-После внесения изменений, таких как копирование [.filename]#loader.conf# в продвинутую клон-копию, например, старая директория в этом случае становится устаревшей. Вместо неё продвинутая клон-копия может её заменить. Для этого сначала выполните `zfs destroy` для старого набора данных, а затем `zfs rename` для клона, указав имя старого набора данных (или совершенно другое имя).
+После внесения изменений, таких как копирование [.filename]#loader.conf# в продвинутую клон-копию, например, старый каталог в этом случае становится устаревшим. Вместо него продвинутая клон-копия может его заменить. Для этого сначала выполните `zfs destroy` для старого набора данных, а затем `zfs rename` для клона, указав имя старого набора данных (или совершенно другое имя).
[source, shell]
....
@@ -2308,13 +2308,13 @@ a|Пул состоит из одного или нескольких vdev, ко
crossref:zfs[zfs-zpool-attach,attach]`.
====
-* [[zfs-term-vdev-raidz]] _RAID-Z_ - ZFS использует RAID-Z — вариацию стандартного RAID-5, которая обеспечивает лучшее распределение четности и устраняет проблему "записи дырки RAID-5", когда данные и информация о четности становятся несогласованными после неожиданного перезапуска. ZFS поддерживает три уровня RAID-Z, которые обеспечивают разную степень избыточности в обмен на уменьшение доступного пространства. ZFS использует RAID-Z1, RAID-Z2 и RAID-Z3 в зависимости от количества устройств четности в массиве и количества дисков, которые могут отказать до того, как пул перестанет работать.
+* [[zfs-term-vdev-raidz]] _RAID-Z_ - ZFS использует RAID-Z — вариацию стандартного RAID-5, которая обеспечивает лучшее распределение чётности и устраняет проблему "записи дырки RAID-5", когда данные и информация о чётности становятся несогласованными после неожиданного перезапуска. ZFS поддерживает три уровня RAID-Z, которые обеспечивают разную степень избыточности в обмен на уменьшение доступного пространства. ZFS использует RAID-Z1, RAID-Z2 и RAID-Z3 в зависимости от количества устройств чётности в массиве и количества дисков, которые могут отказать до того, как пул перестанет работать.
+
В конфигурации RAID-Z1 с четырьмя дисками по 1 ТБ доступное пространство составляет 3 ТБ, и пул сможет продолжать работу в деградированном режиме при отказе одного диска. Если другой диск выйдет из строя до замены и восстановления отказавшего диска, это приведет к потере всех данных пула.
+
В конфигурации RAID-Z3 с восемью дисками по 1 ТБ том предоставит 5 ТБ доступного пространства и сможет работать при отказе трех дисков. Sun(TM) рекомендует использовать не более девяти дисков в одном vdev. Если конфигурация состоит из большего количества дисков, рекомендуется разделить их на отдельные vdev и распределить данные пула между ними.
+
-Конфигурация из двух RAID-Z2 vdev, каждый из которых состоит из 8 дисков, создаст аналог массива RAID-60. Емкость RAID-Z группы примерно равна размеру самого маленького диска, умноженному на количество дисков без четности. Четыре диска по 1 ТБ в RAID-Z1 дают эффективный размер около 3 ТБ, а массив из восьми дисков по 1 ТБ в RAID-Z3 обеспечит 5 ТБ доступного пространства.
+Конфигурация из двух RAID-Z2 vdev, каждый из которых состоит из 8 дисков, создаст аналог массива RAID-60. Емкость RAID-Z группы примерно равна размеру самого маленького диска, умноженному на количество дисков без чётности. Четыре диска по 1 ТБ в RAID-Z1 дают эффективный размер около 3 ТБ, а массив из восьми дисков по 1 ТБ в RAID-Z3 обеспечит 5 ТБ доступного пространства.
* [[zfs-term-vdev-spare]] _Резервный (Spare)_ - ZFS имеет специальный псевдо-vdev для отслеживания доступных горячих резервов. Обратите внимание, что установленные горячие резервы не развертываются автоматически; их необходимо вручную настроить для замены отказавшего устройства с помощью команды `zfs replace`.
* [[zfs-term-vdev-log]] _Журнал (Log)_ - Устройства журнала ZFS, также известные как журнал намерений ZFS (Intent Log)
(crossref:zfs[zfs-term-zil,ZIL]), перемещают журнал намерений с обычных устройств пула на выделенное устройство, обычно SSD. Наличие выделенного устройства журнала улучшает производительность приложений с большим объемом синхронных записей, таких как базы данных. Возможно зеркалирование устройств журнала, но RAID-Z не поддерживается. При записи на несколько устройств журнала нагрузка будут балансироваться между ними.
@@ -2500,7 +2500,7 @@ crossref:zfs[zfs-term-groupquota,групповую квоту].
используемое снимками и наборами-потомками, не учитывается в резервировании. Например, при создании снимка [.filename]#storage/home/bob# для успешного выполнения операции должно быть достаточно места на диске помимо объёма, указанного в `refreservation`. Наборы данных-потомки не учитываются в объёме `refreservation` и, следовательно, не уменьшают зарезервированное пространство.
|[[zfs-term-resilver]]Ресильверинг
-|При замене вышедшего из строя диска ZFS необходимо заполнить новый диск утерянными данными. _Ресильверинг_ (resilvering — серебрение, восстановление зеркала) — это процесс использования информации о четности, распределенной по оставшимся дискам, для вычисления и записи отсутствующих данных на новый диск.
+|При замене вышедшего из строя диска ZFS необходимо заполнить новый диск утерянными данными. _Ресильверинг_ (resilvering — серебрение, восстановление зеркала) — это процесс использования информации о чётности, распределенной по оставшимся дискам, для вычисления и записи отсутствующих данных на новый диск.
|[[zfs-term-online]]Online
|Пул или vdev в состоянии `Online` имеет подключенные и полностью работоспособные устройства-участники. Отдельные устройства в состоянии `Online` функционируют.
diff --git a/documentation/content/ru/books/handbook/zfs/_index.po b/documentation/content/ru/books/handbook/zfs/_index.po
index 63280170c4..f703eab484 100644
--- a/documentation/content/ru/books/handbook/zfs/_index.po
+++ b/documentation/content/ru/books/handbook/zfs/_index.po
@@ -6,7 +6,7 @@ msgid ""
msgstr ""
"Project-Id-Version: FreeBSD Documentation VERSION\n"
"POT-Creation-Date: 2025-06-29 21:20+0100\n"
-"PO-Revision-Date: 2025-10-29 04:45+0000\n"
+"PO-Revision-Date: 2025-11-12 04:45+0000\n"
"Last-Translator: Vladlen Popolitov <vladlenpopolitov@list.ru>\n"
"Language-Team: Russian <https://translate-dev.freebsd.org/projects/"
"documentation/bookshandbookzfs_index/ru/>\n"
@@ -79,12 +79,12 @@ msgid ""
"attempt to automatically correct errors when ditto-, mirror-, or parity-"
"blocks are available."
msgstr ""
-"Целостность данных: Все данные включают crossref:zfs[zfs-term-checksum,"
-"контрольную сумму]. ZFS вычисляет контрольные суммы и записывает их вместе с "
-"данными. При последующем чтении этих данных ZFS пересчитывает контрольные "
-"суммы. Если контрольные суммы не совпадают, что означает обнаружение одной "
-"или нескольких ошибок данных, ZFS попытается автоматически исправить ошибки, "
-"если доступны двойные-, зеркальные- или блоки четности."
+"Целостность данных: Все данные включают crossref:zfs[zfs-term-"
+"checksum,контрольную сумму]. ZFS вычисляет контрольные суммы и записывает их "
+"вместе с данными. При последующем чтении этих данных ZFS пересчитывает "
+"контрольные суммы. Если контрольные суммы не совпадают, что означает "
+"обнаружение одной или нескольких ошибок данных, ZFS попытается автоматически "
+"исправить ошибки, если доступны двойные-, зеркальные- или блоки чётности."
#. type: Plain text
#: documentation/content/en/books/handbook/zfs/_index.adoc:60
@@ -736,7 +736,7 @@ msgid ""
"created file systems to the nightly man:periodic[8] runs by adding this line "
"to [.filename]#/etc/periodic.conf#:"
msgstr ""
-"Настройка RAID-Z завершена. Для добавления ежедневных отчетов о состоянии "
+"Настройка RAID-Z завершена. Для добавления ежедневных отчётов о состоянии "
"созданных файловых систем в ночные запуски man:periodic[8] добавьте "
"следующую строку в [.filename]#/etc/periodic.conf#:"
@@ -4464,7 +4464,7 @@ msgstr ""
"при выполнении стандартной команды `ls -a`. Несмотря на то, что каталог не "
"виден, доступ к нему осуществляется как к обычному каталогу. Свойство "
"`snapdir` определяет, будут ли эти скрытые каталоги отображаться в списке "
-"содержимого директории. Установка свойства в значение `visible` позволяет им "
+"содержимого каталога. Установка свойства в значение `visible` позволяет им "
"появляться в выводе команды `ls` и других команд, работающих с содержимым "
"каталогов."
@@ -4745,8 +4745,8 @@ msgid ""
"dataset name (or to an entirely different name)."
msgstr ""
"После внесения изменений, таких как копирование [.filename]#loader.conf# в "
-"продвинутую клон-копию, например, старая директория в этом случае становится "
-"устаревшей. Вместо неё продвинутая клон-копия может её заменить. Для этого "
+"продвинутую клон-копию, например, старый каталог в этом случае становится "
+"устаревшим. Вместо него продвинутая клон-копия может его заменить. Для этого "
"сначала выполните `zfs destroy` для старого набора данных, а затем `zfs "
"rename` для клона, указав имя старого набора данных (или совершенно другое "
"имя)."
@@ -6763,38 +6763,90 @@ msgid ""
"* [[zfs-term-vdev-cache]] _Cache_ - Adding a cache vdev to a pool will add the\n"
" storage of the cache to the crossref:zfs[zfs-term-l2arc,L2ARC]. Mirroring cache devices is impossible. Since a cache device stores only new copies of existing data, there is no risk of data loss."
msgstr ""
-"Пул состоит из одного или нескольких vdev, которые, в свою очередь, представляют собой отдельный диск или группу дисков, преобразованных в RAID. При использовании множества vdev ZFS распределяет данные между ними для повышения производительности и максимизации доступного пространства. Все vdev должны быть размером не менее 128 МБ.\n"
+"Пул состоит из одного или нескольких vdev, которые, в свою очередь, "
+"представляют собой отдельный диск или группу дисков, преобразованных в RAID. "
+"При использовании множества vdev ZFS распределяет данные между ними для "
+"повышения производительности и максимизации доступного пространства. Все "
+"vdev должны быть размером не менее 128 МБ.\n"
"\n"
-"* [[zfs-term-vdev-disk]] _Диск_ — Самый базовый тип vdev — это стандартное блочное устройство. Это может быть целый диск (например, [.filename]#/dev/ada0# или [.filename]#/dev/da0#) или раздел ([.filename]#/dev/ada0p3#). В FreeBSD нет потери производительности при использовании раздела вместо целого диска. Это отличается от рекомендаций документации Solaris.\n"
+"* [[zfs-term-vdev-disk]] _Диск_ — Самый базовый тип vdev — это стандартное "
+"блочное устройство. Это может быть целый диск (например, [.filename]#/dev/"
+"ada0# или [.filename]#/dev/da0#) или раздел ([.filename]#/dev/ada0p3#). В "
+"FreeBSD нет потери производительности при использовании раздела вместо "
+"целого диска. Это отличается от рекомендаций документации Solaris.\n"
"+\n"
"[CAUTION]\n"
"====\n"
-"Настоятельно не рекомендуется использовать целый диск в составе загружаемого пула, так как это может сделать пул незагружаемым.\n"
-"Аналогично, не следует использовать целый диск в составе зеркала (mirror) или RAID-Z vdev.\n"
-"Надежное определение размера неразмеченного диска во время загрузки невозможно, и нет места для размещения загрузочного кода.\n"
+"Настоятельно не рекомендуется использовать целый диск в составе загружаемого "
+"пула, так как это может сделать пул незагружаемым.\n"
+"Аналогично, не следует использовать целый диск в составе зеркала (mirror) "
+"или RAID-Z vdev.\n"
+"Надежное определение размера неразмеченного диска во время загрузки "
+"невозможно, и нет места для размещения загрузочного кода.\n"
"====\n"
"\n"
-"* [[zfs-term-vdev-file]] _Файл_ — Обычные файлы могут составлять пулы ZFS, что полезно для тестирования и экспериментов. Используйте полный путь к файлу в качестве пути к устройству в команде `zpool create`.\n"
-"* [[zfs-term-vdev-mirror]] _Зеркало (Mirror)_ - При создании зеркала укажите ключевое слово `mirror`, за которым следует список устройств-участников зеркала. Зеркало состоит из двух или более устройств, и все данные записываются на все устройства-участники. Зеркальный vdev будет хранить столько данных, сколько может поместиться на его самом маленьком устройстве. Зеркальный vdev может пережить отказ всех устройств, кроме одного, без потери данных.\n"
+"* [[zfs-term-vdev-file]] _Файл_ — Обычные файлы могут составлять пулы ZFS, "
+"что полезно для тестирования и экспериментов. Используйте полный путь к "
+"файлу в качестве пути к устройству в команде `zpool create`.\n"
+"* [[zfs-term-vdev-mirror]] _Зеркало (Mirror)_ - При создании зеркала укажите "
+"ключевое слово `mirror`, за которым следует список устройств-участников "
+"зеркала. Зеркало состоит из двух или более устройств, и все данные "
+"записываются на все устройства-участники. Зеркальный vdev будет хранить "
+"столько данных, сколько может поместиться на его самом маленьком устройстве. "
+"Зеркальный vdev может пережить отказ всех устройств, кроме одного, без "
+"потери данных.\n"
"+\n"
"[NOTE]\n"
"====\n"
-"Чтобы в любой момент обновить обычный vdev с одним диском до зеркального vdev, используйте команду `zpool\n"
+"Чтобы в любой момент обновить обычный vdev с одним диском до зеркального "
+"vdev, используйте команду `zpool\n"
"crossref:zfs[zfs-zpool-attach,attach]`.\n"
"====\n"
"\n"
-"* [[zfs-term-vdev-raidz]] _RAID-Z_ - ZFS использует RAID-Z — вариацию стандартного RAID-5, которая обеспечивает лучшее распределение четности и устраняет проблему \"записи дырки RAID-5\", когда данные и информация о четности становятся несогласованными после неожиданного перезапуска. ZFS поддерживает три уровня RAID-Z, которые обеспечивают разную степень избыточности в обмен на уменьшение доступного пространства. ZFS использует RAID-Z1, RAID-Z2 и RAID-Z3 в зависимости от количества устройств четности в массиве и количества дисков, которые могут отказать до того, как пул перестанет работать.\n"
+"* [[zfs-term-vdev-raidz]] _RAID-Z_ - ZFS использует RAID-Z — вариацию "
+"стандартного RAID-5, которая обеспечивает лучшее распределение чётности и "
+"устраняет проблему \"записи дырки RAID-5\", когда данные и информация о "
+"чётности становятся несогласованными после неожиданного перезапуска. ZFS "
+"поддерживает три уровня RAID-Z, которые обеспечивают разную степень "
+"избыточности в обмен на уменьшение доступного пространства. ZFS использует "
+"RAID-Z1, RAID-Z2 и RAID-Z3 в зависимости от количества устройств чётности в "
+"массиве и количества дисков, которые могут отказать до того, как пул "
+"перестанет работать.\n"
"+\n"
-"В конфигурации RAID-Z1 с четырьмя дисками по 1 ТБ доступное пространство составляет 3 ТБ, и пул сможет продолжать работу в деградированном режиме при отказе одного диска. Если другой диск выйдет из строя до замены и восстановления отказавшего диска, это приведет к потере всех данных пула.\n"
+"В конфигурации RAID-Z1 с четырьмя дисками по 1 ТБ доступное пространство "
+"составляет 3 ТБ, и пул сможет продолжать работу в деградированном режиме при "
+"отказе одного диска. Если другой диск выйдет из строя до замены и "
+"восстановления отказавшего диска, это приведет к потере всех данных пула.\n"
"+\n"
-"В конфигурации RAID-Z3 с восемью дисками по 1 ТБ том предоставит 5 ТБ доступного пространства и сможет работать при отказе трех дисков. Sun(TM) рекомендует использовать не более девяти дисков в одном vdev. Если конфигурация состоит из большего количества дисков, рекомендуется разделить их на отдельные vdev и распределить данные пула между ними.\n"
+"В конфигурации RAID-Z3 с восемью дисками по 1 ТБ том предоставит 5 ТБ "
+"доступного пространства и сможет работать при отказе трех дисков. Sun(TM) "
+"рекомендует использовать не более девяти дисков в одном vdev. Если "
+"конфигурация состоит из большего количества дисков, рекомендуется разделить "
+"их на отдельные vdev и распределить данные пула между ними.\n"
"+\n"
-"Конфигурация из двух RAID-Z2 vdev, каждый из которых состоит из 8 дисков, создаст аналог массива RAID-60. Емкость RAID-Z группы примерно равна размеру самого маленького диска, умноженному на количество дисков без четности. Четыре диска по 1 ТБ в RAID-Z1 дают эффективный размер около 3 ТБ, а массив из восьми дисков по 1 ТБ в RAID-Z3 обеспечит 5 ТБ доступного пространства.\n"
-"* [[zfs-term-vdev-spare]] _Резервный (Spare)_ - ZFS имеет специальный псевдо-vdev для отслеживания доступных горячих резервов. Обратите внимание, что установленные горячие резервы не развертываются автоматически; их необходимо вручную настроить для замены отказавшего устройства с помощью команды `zfs replace`.\n"
-"* [[zfs-term-vdev-log]] _Журнал (Log)_ - Устройства журнала ZFS, также известные как журнал намерений ZFS (Intent Log)\n"
-" (crossref:zfs[zfs-term-zil,ZIL]), перемещают журнал намерений с обычных устройств пула на выделенное устройство, обычно SSD. Наличие выделенного устройства журнала улучшает производительность приложений с большим объемом синхронных записей, таких как базы данных. Возможно зеркалирование устройств журнала, но RAID-Z не поддерживается. При записи на несколько устройств журнала нагрузка будут балансироваться между ними.\n"
-"* [[zfs-term-vdev-cache]] _Кэш (Cache)_ - Добавление кэширующих vdev к пулу увеличит\n"
-" хранилище кэша в crossref:zfs[zfs-term-l2arc,L2ARC]. Зеркалирование устройств кэша невозможно. Поскольку устройство кэша хранит только новые копии существующих данных, риск потери данных отсутствует."
+"Конфигурация из двух RAID-Z2 vdev, каждый из которых состоит из 8 дисков, "
+"создаст аналог массива RAID-60. Емкость RAID-Z группы примерно равна размеру "
+"самого маленького диска, умноженному на количество дисков без чётности. "
+"Четыре диска по 1 ТБ в RAID-Z1 дают эффективный размер около 3 ТБ, а массив "
+"из восьми дисков по 1 ТБ в RAID-Z3 обеспечит 5 ТБ доступного пространства.\n"
+"* [[zfs-term-vdev-spare]] _Резервный (Spare)_ - ZFS имеет специальный псевдо-"
+"vdev для отслеживания доступных горячих резервов. Обратите внимание, что "
+"установленные горячие резервы не развертываются автоматически; их необходимо "
+"вручную настроить для замены отказавшего устройства с помощью команды `zfs "
+"replace`.\n"
+"* [[zfs-term-vdev-log]] _Журнал (Log)_ - Устройства журнала ZFS, также "
+"известные как журнал намерений ZFS (Intent Log)\n"
+" (crossref:zfs[zfs-term-zil,ZIL]), перемещают журнал намерений с обычных "
+"устройств пула на выделенное устройство, обычно SSD. Наличие выделенного "
+"устройства журнала улучшает производительность приложений с большим объемом "
+"синхронных записей, таких как базы данных. Возможно зеркалирование устройств "
+"журнала, но RAID-Z не поддерживается. При записи на несколько устройств "
+"журнала нагрузка будут балансироваться между ними.\n"
+"* [[zfs-term-vdev-cache]] _Кэш (Cache)_ - Добавление кэширующих vdev к пулу "
+"увеличит\n"
+" хранилище кэша в crossref:zfs[zfs-term-l2arc,L2ARC]. Зеркалирование "
+"устройств кэша невозможно. Поскольку устройство кэша хранит только новые "
+"копии существующих данных, риск потери данных отсутствует."
#. type: Table
#: documentation/content/en/books/handbook/zfs/_index.adoc:2833
@@ -7312,7 +7364,12 @@ msgstr "[[zfs-term-resilver]]Ресильверинг"
#: documentation/content/en/books/handbook/zfs/_index.adoc:3012
#, no-wrap
msgid "When replacing a failed disk, ZFS must fill the new disk with the lost data. _Resilvering_ is the process of using the parity information distributed across the remaining drives to calculate and write the missing data to the new drive."
-msgstr "При замене вышедшего из строя диска ZFS необходимо заполнить новый диск утерянными данными. _Ресильверинг_ (resilvering — серебрение, восстановление зеркала) — это процесс использования информации о четности, распределенной по оставшимся дискам, для вычисления и записи отсутствующих данных на новый диск."
+msgstr ""
+"При замене вышедшего из строя диска ZFS необходимо заполнить новый диск "
+"утерянными данными. _Ресильверинг_ (resilvering — серебрение, восстановление "
+"зеркала) — это процесс использования информации о чётности, распределенной "
+"по оставшимся дискам, для вычисления и записи отсутствующих данных на новый "
+"диск."
#. type: Table
#: documentation/content/en/books/handbook/zfs/_index.adoc:3013