Gigabyte RAID configurer что это

Виды кэша, настройка производительности на рейд контроллерах LSI и Intel

Gigabyte RAID configurer что это

Виды кэша на рейд контроллерах LSI и Intel

Всем привет, давно хотел написать для себя напоминалку, по поводу того какие виды кэша на рейд контроллерах LSI и Intel бывают, и какие настройки лучше всего выставлять для достижения максимальной производительности на ваших RAID контроллерах.

Сразу хочу отметить, что если у вас есть запас времени, перед, тем как отдать сервер в продашен заказчику, то не поленитесь все же провести несколько тестов с разными настройками, и не забывайте, до их начала обновить все прошивки на оборудование и RAID контроллер.

Общие понятия по видам кэш

Существует три разновидности cache на RAID контроллерах:

  • read policy
  • write policy
  • i/o policy

Рассмотрим более детально, что из себя представляет каждая политика кэширования.

Read policy (Политика чтения)

Политика Read Ahead Policy: При ее включении контроллер начинает считывать последовательно сектора на диске, находящиеся за сектором с которого извлекается информация.

При низкой фрагментации данная политика позволяет увеличить скорость чтения.

 Каждая операция чтения будет потреблять больше ресурсов жесткого диска, но если запросы на чтение последовательные это может существенно уменьшить количество запросов на чтение на жесткие диски и может существенно повысить производительность. Этот параметр будет работать только если  типичный размер запроса на чтения меньше, чем ширина полосы пропускания.

Политика No Read Ahead (Normal): При данном режиме контроллер не будет считывать последовательно данные, данный режим предпочтительнее когда будут производиться рандомные (случайные) чтения. Также этот режим рекомендуется при измерении последовательного чтения с помощью I/O meter под Windows.

Политика Adaptive Read Policy: по сути политика адаптивного чтения при которой контроллер запускает политику упреждающего чтения только после того, как две последние операции запрашивали доступ к последовательно идущим блокам данных. Если далее идут блоки рандомно разбросанные по дисковой подсистеме контроллер возвращается в нормальный режим работы.  Этот режим рекомендуется использовать, если нагрузка на RAID контроллере подразумевает смешанные и последовательные операции.

Write policy (Политика записи)

Политика Write-Through: Включая данную политику контроллер начинает посылает сигнал о завершении записи только тогда, когда информация упадет на физические носители, т.е.

100 процентов будет уже на жестких дисках. Обеспечивает более высокую безопасность.

Данный режим не использует кэш для ускорения записи, и будет медленнее других, однако позволяет так же достичь хороших показателей при RAID 0 и RAID 10.

Политика Write-Back: Включая данный режим политика кэширования RAID контроллера начинает посылать сигнал о завершении записи только тогда, когда информация попадает в кэш контроллера, но еще не записана на дисковый массив.

Обеспечивает более высокую прозводительность чем при политике write-through. Приложение продолжает работать, не дожидаясь, чтобы данные были физически записаны на жесткие диски.

Но есть одно большое, но если во время работы RAID контроллера в таком режиме у вас пропадет электричество, то с 99 процентной вероятностью вы потеряете данные, для предотвращения этого есть BBU батарейки или модули защиты данных, так же советую проверить что у вашего сервера есть UPS (источник бесперебойного питания) и дублирующее подключение питания от блока питания.

Политика Write-Back with BBU: Данный режим это все тот же Write-Back, но разница в том, что у нас есть батарейка BBU, которая предотвращает потерю данных при выключении электропитания.

BBU илиBattery Backup Unit (Модуль Резервной Батареи). BBU дает батарейную защиту питания для cache RAID контроллера. В случае сбоя питания, BBU поможет сохранить данные в кэше.

I/O Policy (Политика ввода/вывода)

Политика ввода/вывода определяет, будет ли RAID контроллер сохранять данные в кэше, который может уменьшить время доступа к ним при последующих запросах на чтение сделаными в те же самые блоки данных.

Политика direct IO: чтение происходит с дисков. Прямой режим I/O рекомендуется в большинстве случаев. Большинство файловых систем и множество приложений имеют свой собственный кэш и не требуют кэширования данных на уровне контроллера RAID.

Политика Cached IO: При ее включении чтение происходит с дисков, но прочитанные данные одновременно кладутся в кэш. Запросы тех же данных в последствии берутся из кэша. Этот режим может потребоваться, если приложение или файловая система не кэширует запросы чтения

Disk cache policy: это политика кэша диска. Если ее включить то на дисках будет храниться дополнительный кэш, это будет влиять на скорость записи в худшую сторону, но будут быстрее считывание, так же при включенном режиме есть риск потери данных.

Настройка RAID контроллера для лучшей производительности

Любой инженер по системам хранения данных, хочет чтобы его инфраструктура работала как можно быстрее и использовала весь функционал заложенный в ней. Каждый вендор RAID контроллеров, имеет некий best prictice для своей продукции, давайте сегодня рассмотрим их на примере контроллеров Intel и LSI.

Оптимальные настройки для контроллеров Intel

Ниже представлена таблица с рекомендуемыми настройками для контроллеров Intel, для достижения максимальной производительности.

О таких параметрах как Stripe size, Virtual Drive initialization, Consistency Check, Patrol Read мы поговорим ниже.

Как видите лучшим режимом чтения является Adaptive Read Ahead, а режимом записи Write Back.

Оптимальные настройки для контроллеров LSI

Ниже представлена таблица с рекомендуемыми настройками для контроллеров LSI, для достижения максимальной производительности. Будут рассмотрены сводные таблицы для HDD и для SSd дисков.

Оптимальные настройки для HDD

Размер stripe 256 kb, включение disk Cache Policy включен, выбран I/O Policy Direct IO, нужно дать закончить lun инициализацию

MegaRAID Settings for Maximum HDD Performance

Оптимальные настройки для SSD

Размер stripe 256 kb, включение disk Cache Policy включен, выбран I/O Policy Direct IO, нужно дать закончить lun инициализацию, режимы записи для разных видов RAID разные.

MegaRAID Settings for Maximum SSD Performance

Если вам позволяет время то советую протестировать все возможные варианты кэширования для вашего RAID контроллера

Оптимальные настройки для HP контроллеров

Best practices для RAID контроллеров HP можно посмотреть вот тут.

Факторы влияющие на производительность

Рассмотрим что такое Stripe size, Virtual Drive initialization, Consistency Check, Patrol Read.

Virtual Drive initialization — это зануление, блоков раздела, перед тестирование скорости советую дождаться полной инициализации. По времени занимает по разному все зависит от размеров массива.

Stripe size — Размер блока данных одной ячейки раздела, по сути карта как данные распределены по жестким дискам. Размер страйпа может иметь большое влияние на
Конфигурирование RAID для оптимальной производительности и других факторов эффективности.

Как правило при последовательных данных увеличить скорость RAID контроллера можно с помощью размеров stripe 512 kb или 1 mb. При случайном виде доступа лучше 16 кб, все зависит от того какое По у вас будет крутиться на данном разделе.

Читайте также  Недействительный URL загрузки Play market что делать

Но в большинстве случаев лучше оставить стандартный размер, предлагаемый производителем.

Consistency Check — Проверка целостности является важной функцией, которая помогает обнаружить несоответствия в данных, хранящихся на жестких дисках в RAID массивах и выявляет возможные повреждения данных.

Проверка целостности генерирует значительное количество запросов к диску, которые могут уменьшить производительность RAID.

В идеале ее вообще отключить, но этим вы жертвуете оповещением о ранних проблемах с дисками.

Patrol Read — помогает обнаруживать и исправлять плохие блоки на жестких дисках и предотвращать возможную потерю данных.

Patrol Read генерирует значительное количество запросов к диску, которые могут уменьшить производительность RAID контроллера.

Вы должны включить или отключить Patrol Read в зависимости от цели вашей работы

измерения.

Источник: http://pyatilistnik.org/vidyi-kesha-nastroyka-proizvoditelnosti-na-reyd-kontrollerah-lsi-i-intel/

Configuring Hardware RAID Arrays on Fujitsu Primergy — AN!Wiki

From AN!Wiki

 AN!Wiki :: How To :: Configuring Hardware RAID Arrays on Fujitsu Primergy

This mini-tutorial is meant to walk you through the process of configuring hardware RAID arrays on Fujitsu Primergy servers using LSI-based controllers.

This is not designed to be an extensive tutorial.

It is meant to be a «quick-start» guide to help you get under way with building an Anvil!. It is part of the «Anvil! m2 Tutorial».

This covers two LSI types;

  • MegaRAID Configuration Utility
  • WebBIOS

The former is used on the Mx generations and the later from the Sx generation servers.

Booting in the MegaRAID Configuration Utility

Fujitsu M1 — BIOS — EP420i boot prompt

After the main system BIOS is done booting, you will see the hardware RAID controller BIOS start up.

It can take a minute, and this is normal.

Once started, the controller will scan for attached drives and then present an option to press 'ctrl + R' to enter the «MegaRAID Configuration Utility». Do so.

Building an Array

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Main Page.

Here we see a controller with 24 1.63 TiB (1.8 TB) disks.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Select No Configuration Present !.

Press the ↑ (up) arrow to highlight No Configuration Present !.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — «Operations» sub menu.

Press to open the «Operations» sub menu.

The «Create Virtual Drive» option is already selected. Press to start building the array.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Array menu.

Note: Please note, we are going to create a RAID level 6 array with two hot-spare drives. You may well be creating a different configuration. Please adapt as necessary.

The «Create New VD» menu starts with the «RAID Level» set to «0», which is very much not what we want.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Select RAID level 6.

Press «» to open the RAID level selection list, press '↓' (down) to highlight «RAID-6» and then press ''.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Select Drives.

Press the '' key to switch over to the «Drives» table. Press '' to select (and unselect) each drive, and the '' (up) and '' (down) keys to navigate the available disks.

Note: If, us, you are going to have hot-spare drives, do not select them here!

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Drives Selected.

Once the drives you want to use in the array, minus hot-spares, press '' (and ' + ' to back up) multiple times until 'Advanced' is selected. Feel free to use a 'Name' if you . Press '' to proceed.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Advanced Array Menu.

Use '' to navigate to «[ ] Initialize» and press '' to enable.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Initialize Warning.

Warning: If you are rebuilding a previous (unencrypted) array, then DO NOT initialize your array! This process destroys any and all existing data on the array.

We're building a new array, so in our case (and most often), initialization is desired. Press '' to select the «OK» button and press ''.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Array Menu — OK button.

Back on the main array menu, '' to 'OK' and press ''.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Initialization Complete.

Shortly after returning to the main menu, a window will pop up telling you that the initialization has completed. Press '' to close the window.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Array Built.

The array is now built!

Do note that the 'Operation: Back Init. Progress' will slowly run. You will also note that the drives will have their activity LEDs blink for some time.

This is because, after the initial initialization is complete, a full background initialization is performed. Until this is complete, disk performance will be degraded.

Roughly 30% of the disk performance is allocated for this background initialization.

Configure Hot Spares

A «hot spare» is a drive physically in a node that is configured to automatically replace a drive that is in an array that fails. In this way, the array returns to a fully operational state with minimal time in a degraded state.

Hot spares can either be allocated to a specific array (when you have two or more), or it can be a «global» hot spare (GHS). A global hot spare can then be allocated to any array on the node.

In our case, we have only one array, so functionally there is no difference. We will use 'global hot spare' here.

We could have allocated a hot-spare during the assembly of the array above, but in my case, I want two hot spares.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Configure Hot Spares.

Note: Press ' + n' to switch to the next page, and ' + p' to navigate back to the previous page.

Press ' + n' to change to the «PD Mgmt» page. Here, we see a list of drives, with the top two listed as «UG» (Unconfigured, Good).

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Drive Operations.

Highlight one of the «UG» disks to open the «Operations» menu. Navigate down to «Make Global HS» and press ''.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Hot Spares Configured.

Repeat this for the second «UG» drive. Both will then be marked as «Hotspare».

Читайте также  Чем отличается домашняя от профессиональной Windows 10

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Main Menu with GHS.

Now there are no more unconfigured drives.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — Exit prompt.

Press '' to exit, navigate to 'OK' and press '' to exit.

Fujitsu M1 — BIOS — EP420i — MegaRAID Configuration Utility — «Control+Alt+Del» prompt.

Press ' + + ' to reboot the node now.

On the next boot, your new array will be ready for data!

Encryption

If you plan to use encryption, please review this tutorial first:

  • Encrypted Arrays with LSI SafeStore

Booting into the WebBIOS

Fujitsu S8 — BIOS — LSI boot prompt

After the main system BIOS is done booting, you will see the hardware RAID controller BIOS start up.

It can take a minute, and this is normal.

Once started, the controller will scan for attached drives and then present an option to press ' + ' to enter the «WebBIOS». Do so.

Selecting a Controller

LSI WebBIOS controller selection

The first screen you will see is one that asks you to choose which adapter you want to configure.

Most machines have only one adapter installed, so there is nothing to choose, really.

Press 'Start'.

New Configuration

LSI WebBIOS configuration wizard

This is a new array and there is no existing configuration, so both «New Configuration» and «Add Configuration» will do the same thing.

The difference is that, if there was an existing array, «New Configuration» would delete it where «Add Configuration» would let you build a second (or third or …) array.

In our case, we'll choose «New Configuration» and then click on 'Next'.

LSI WebBIOS new configuration warning

You are warned that this will erase any existing arrays. In our case that is OK, so we'll click 'Yes'

Manual Configuration

LSI WebBIOS manual or automatic array assembly prompt

To make life easier, the controller gives you the option of performing an «Automatic Configuration», but we're control freaks.

So we're going to select «Manual Configuration» and the click on 'Next'.

Drive Group

LSI WebBIOS Drive group menu

We need to first create a «Drive group», which is the set of drives we want to assemble into an array.

We're going to use all disks to create a single RAID level 5 array.

Note: We normally would not use RAID level 5 alone, but because the Anvil! mirrors the data across both nodes, we end up with, effectively, RAID level 51.

LSI WebBIOS Drive group menu — Drives selected

To create a drive group, click on the first drive in the list («Slot: 0, SAS, HDD, 136.218 GB» in the screen shot above), wait a moment and it will be highlighted in blue.

Then press and hold the '' key and then click on the rest of the drives.

LSI WebBIOS Drive group menu — Accept drive group

Once all drives are highlighted, click the 'Add to Array' button.

Now all the drives will be shown in the right-side «Drive Groups» window.

LSI WebBIOS Drive group menu — Accept drive group

Click on 'Accept DG' to create the drive group.

The page will reload but now the «Accept DG» button is gone, which is good.

Click 'Next' to proceed.

Create SPAN

LSI WebBIOS Drive group menu — Span definition

The next page allows us to create «SPAN» (combining two RAID arrays into one combined array, a mirror of RAID 5 arrays to create a '15' array). We don't need a combined array, so we will create a «SPAN» of just the one array.

LSI WebBIOS Drive group menu — Add to SPAN

Click on the «Add to SPAN» and then click 'Next'.

Create the Array

LSI WebBIOS Virtual Drive definition

Now we configure the array itself!

By default, the controller suggests RAID level 6. If this was a single-server setup, that would be perfectly sensible.

LSI WebBIOS Virtual Drive definition — Set RAID level 5

We're mirroring our data across two nodes though, so we can live a little more dangerously and select RAID level 5.

Click on the «RAID Level» select box and change the value to 'RAID 5'

We have a Flash Backup module on our controller that allows us to safely use write-back caching.

The provides a significant performance boost, but it is only safe to use when the flash unit is working. In the past, these was a battery and was called a «Battery Backup Unit» (BBU).

So we can safely click on the «Write Policy» selection box and change the value to «Write Back with BBU».

LSI WebBIOS Virtual Drive definition — Update size

Next, click on the «Update Size» button and the controller will automatically fill out the «Select Size» text field.

Now, click «Accept» to create the array!

LSI WebBIOS Virtual Drive definition — BBU warning

The controller, being ever diligent and terrifying, will warn you about the risks of using write-back caching only when the BBU is healthy.

It notes, rightly, that the performance will degrade should the BBU (well, «U» in our case) ever fail. As much as we'd not want to lose performance, this is the only safe option.

Click on 'Yes' to continue.

LSI WebBIOS Virtual Drive definition — Finished!

After the warning, it takes us back to the «Virtual Drive Definition» window, but now we see our new array in the right-side «Virtual Drives» window.

Click on 'Next' to finish.

Finishing up

LSI WebBIOS Virtual Drive definition — Preview the finished array

We are taken back to the «Virtual Drives» window and our new array is shown.

Click on «Accept».

LSI WebBIOS Virtual Drive definition — Save configuration

Never one to miss an opportunity to ask a question; We're asked if we want to save the configuration.

Press 'Yes'.

LSI WebBIOS Virtual Drive definition — Initialize the array

Oh look, another question!

Press 'Yes'.

LSI WebBIOS Virtual Drive definition — Set boot drive

Now we define the array to boot off of.

We only have one array, so this step is arguably not needed. However, should new drives be added in the future and a second array created, this will prevent problems.

Click to select the «Set Boot Drive (current=NONE)» radio button and then click on 'Go'.

Note: If you get an error saying «Must wait for current operation to complete», then don't worry about setting the boot device. You can come into the WebBIOS and set it later.

LSI WebBIOS Virtual Drive definition — Boot drive '0'

Now that the boot drive is set to '0', we're done!

Читайте также  Компьютер стал тормозить Windows 7 что делать

Click on 'Home' to return to the main menu.

LSI WebBIOS Virtual Drive definition — Main page with the new array

Now we see our shiny new array!

Click on 'Exit', then click 'Yes' and then reboot your machine.

Any questions, feedback, advice, complaints or meanderings are welcome.
Us: Alteeve's Niche! Support: Mailing List IRC: #clusterlabs on Freenode © Alteeve's Niche! Inc. 1997-2018
legal stuff: All info is provided «As-Is». Do not use anything here unless you are willing and able to take responsibility for your own actions.

Источник: https://www.alteeve.com/w/Configuring_Hardware_RAID_Arrays_on_Fujitsu_Primergy

RAID на материнской плате: когда лекарство опаснее болезни

2gusiaДисковые массивы принято называть RAID. Зануда может рассказать, что это не вполне корректно, но опустим тонкости. Важнее то, что самый доступный для домашнего пользователя вид RAID, на материнской плате, вреден.

То есть его можно использовать для построения RAID0 (это который с увеличением скорости в ущерб надёжности). Но для сохранения информации или обеспечения доступа к ней использовать RAID на матплате может быть опасно.

Поэтому при выборе материнской платы пользовательского класса (ака desktop) обращать внимание на то, какой в ней RAID не нужно. Он в любом случае fake-RAID, горячий привет маркетологам.

Кстати, в серверах, где RAID функционал не просто востребован, но и обязателен, используют не fake-RAID функционал матери, а отдельные недешёвые контроллеры. Зачем-то.

Если вам интересно подробнее

Из нашего FAQ

ВАЖНО настолько, что подчеркну вновь. Никакой RAID не есть замена backup.

Предельно кратко, пригодный к промышленному использованию RAID бывает программный (SW, software), аппаратный (HW, hardware).

Годный аппаратный RAID контроллер — это собранный на карте расширения специализированный компьютер со своими процессором, памятью, и, особенно важно, системой сохранения памяти при сбое по питанию. Обычно это BBU, батарейка в просторечье.

Помимо множества преимуществ у аппаратного RAID контроллера есть почти запретительная для домашнего использования цена. Программный RAID реализуется средствами операционной системы.

Как примеры можно привести mdadm из Linux, zfs из Solaris, FreeBSD, Linux или Storage Spaces из Windows.

Программный RAID потому и программный, что не привязан к конкретному оборудованию, а может работать на различном, если оно поддерживается операционной системой. Ещё недавно работа программного RAID отнимала значительные ресурсы от центрального процессора. Но с ростом производительности процессоров проблема практически отпала.

Fake RAID возник как дешёвая замена аппаратного RAID. Вычисления производятся на центральном процессоре компьютера. Но какая то, пусть и минимальная аппаратная часть используется.

Например, первая же ссылка, выдаваемая Гуглом по запросу «материнские платы raid» содержит следующую чушь

[Spoiler (click to open)]Аппаратный raid покажет ощутимое преимущество если у вас 4 или более винчестеров в раид массиве, т.е. если проект имеет реально большую нагрузку на дисковую систему. Тогда отдельная плата позволит серверу быстрее обрабатывать огромное количество одновременных параллельных дисковых операций ввода-вывода.(…) По надежности оба типа контроллеров одинаковы.

Это не правда, они не одинаковы по надёжности.

На фейковом RAID вы запросто получите дыру по записи при сбое по питанию, или поимеете проблемы при попытке восстановления массива, когда диск сдохнет и такое восстановление понадобится, или обнаружите, что на новой материнской плате фейковый RAID не монтируется или потеряете метки на RAID дисках при сбросе BIOS матери из-за севшей батарейки  и пр. Впрочем запростоне значит наверняка. При известной (и не такой уж большой) квалификации вы вполне можете преодолеть эти и другие проблемы. Просто такая квалификация нужно ДО того, когда приходится перестраивать RAID массив, а не В МОМЕНТ, когда диск упал и что-то надо делать. Поэтому, устраивая у себя RAID, обязательно смоделируйте на берегу возможные нештатные ситуации. Оно сильно пригодится. И для душевного здоровья и для сохранности волос на заднице. Кстати, когда я впервые примерялся к ZFS, я не поленился даже сбойный диск включить в массив, записать данные, вырвать на горячую нормальный диск — и посмотреть что будет. Так что совет про на берегу — он не только про фейковый RAID, он про всё в этой жизни.

PS UPD от 12 фев 2017 Пример из жизни

Всем добрый вечер. Может есть способ решить мою проблему без длительных копирований восстановлений. На материнке был RAID0 2Tb+2Tb, и SSD с системой. После какаихто манипуляций подростающего поколения с разгоном, биос не смог загрузить текущую конфигурацию и предложил сбросится по умолчанию. С чем юное дарование собственно и согласилось. После этого была попытка загрузить систему, которая почти удалась, вот только винда заныла что что то у меня там не очень внутри, и давайтека восстановимся. Юный хакер конечно согласился, но после всех процедур он грустно глянул на синий экран и позвал меня. После включения в биосе режима RAID для дисков, винда благополучно загрузилась, но рейд развалился, один диск остался второй вывалился и стал диском D , на место рейда. Как я понимаю винда когда восстанавливала себя потерла там загрузочные сектора и т.д. Подозреваю что есть путь решения проблемы при помощи исправления только загрузочной информации, хотя не факт. если там вся информация убита. Сейчас пробую прогнать через R-Studiо , но тот диск чтоостался в рейде пришлось подключить через USB, по другому он лезет в рейд, и еще часов 12 он будет только сканироваться. И то не факт что на выходе не получу фарш. Вот собственно и вопрос. Есть шанс как то восстановить инфу по другому. Всем спасибо за то что прочитали хотя бы) а если еще и идею подкинете по делу — огроменное спасибо вам!/UPD
UPD от 20 фев 2017 Ни разу не было и вот снова…
Так случилось, что сервер, благополучно работавший в дата-центре с 2010 года, завис, а после выключения-включения не смог загрузиться. На нем стоит RAID1 из двух 500 гиговых WD. В настоящее время состояние рейда — none defined, а оба диска в статусе Offline member. Контроллер — Intel Matrix Storage Manager option ROM v8.9.1.1002. Первым делом я приволок сервер в офис и стал бэкапить диски. Один благополучно забэкапился, а вот второй стал ругаться на битые сектора. Собственно свой ресурс диски уже выработали и я сейчас заказал пару новых. Отсюда вопрос, как мне вернуть рейд в работоспособное состояние? На порту 0 — рабочий диск, на порту 1 — битый диск. У биосе контроллера есть опция Recovery Volume Options, а в ней подопции 1. Enable only Recovery Disk 2. Enable only Master Disk. Я так понимаю, что мастер диск на порту 0. Или вот тут на форуме писали, что нужно делать диск Non-RAID, а потом создавать его заново. Что посоветуете? /UPD

|

2gusiaВ камчатской истории с заблокированной скорой помощью и умершим пациентом сегодня по радио услышал важную деталь. Я-то думал там какое гламурное кисо сидело. Ан нет, автоледи оказалась уважаемым человеком. Членом избирательной комиссии. Думаю, её теперь наградят. А у тех врачей точно что-то не в порядке окажется, подозрительные они какие-то…

Источник: https://2gusia.livejournal.com/478575.html

Понравилась статья? Поделить с друзьями: