Хранение данных на сервере в файловой системе. Система хранения данных - схд

Хранение данных на сервере в файловой системе. Система хранения данных - схд

Именно информация является движущей силой современного бизнеса и в настоящий момент считается наиболее ценным стратегическим активом любого предприятия. Объем информации растет в геометрической прогрессии вместе с ростом глобальных сетей и развитием электронной коммерции. Для достижения успеха в информационной войне необходимо обладать эффективной стратегией хранения, защиты, совместного доступа и управления самым важным цифровым имуществом - данными - как сегодня, так и в ближайшем будущем.

Управление ресурсами хранения данных стало одной из самых животрепещущих стратегических проблем, стоящих перед сотрудниками отделов информационных технологий. Вследствие развития Интернета и коренных изменений в процессах бизнеса информация накапливается с невиданной скоростью. Кроме насущной проблемы обеспечения возможности постоянного увеличения объема хранимой информации, не менее остро на повестке дня стоит и проблема обеспечения надежности хранения данных и постоянного доступа к информации. Для многих компаний формула доступа к данным «24 часа в сутки, 7 дней в неделю, 365 дней в году» стала нормой жизни.

В случае отдельного ПК под системой хранения данных (СХД) можно понимать отдельный внутренний жесткий диск или систему дисков. Если же речь заходит о корпоративной СХД, то традиционно можно выделить три технологии организации хранения данных: Direct Attached Storage (DAS), Network Attach Storage (NAS) и Storage Area Network (SAN).

Direct Attached Storage (DAS)

Технология DAS подразумевает прямое (непосредственное) подключение накопителей к серверу или к ПК. При этом накопители (жесткие диски, ленточные накопители) могут быть как внутренними, так и внешними. Простейший случай DAS-системы - это один диск внутри сервера или ПК. Кроме того, к DAS-системе можно отнести и организацию внутреннего RAID-массива дисков с использованием RAID-контроллера.

Стоит отметить, что, несмотря на формальную возможность использования термина DAS-системы по отношению к одиночному диску или к внутреннему массиву дисков, под DAS-системой принято понимать внешнюю стойку или корзину с дисками, которую можно рассматривать как автономную СХД (рис. 1). Кроме независимого питания, такие автономные DAS-системы имеют специализированный контроллер (процессор) для управления массивом накопителей. К примеру, в качестве такого контроллера может выступать RAID-контроллер с возможностью организации RAID-массивов различных уровней.

Рис. 1. Пример DAS-системы хранения данных

Следует отметить, что автономные DAS-системы могут иметь несколько внешних каналов ввода-вывода, что обеспечивает возможность подключения к DAS-системе нескольких компьютеров одновременно.

В качестве интерфейсов для подключения накопителей (внутренних или внешних) в технологии DAS могут выступать интерфейсы SCSI (Small Computer Systems Interface), SATA, PATA и Fibre Channel. Если интерфейсы SCSI, SATA и PATA используются преимущественно для подключения внутренних накопителей, то интерфейс Fibre Channel применяется исключительно для подключения внешних накопителей и автономных СХД. Преимущество интерфейса Fibre Channel заключается в данном случае в том, что он не имеет жесткого ограничения по длине и может использоваться в том случае, когда сервер или ПК, подключаемый к DAS-системе, находится на значительном расстоянии от нее. Интерфейсы SCSI и SATA также могут использоваться для подключения внешних СХД (в этом случае интерфейс SATA называют eSATA), однако данные интерфейсы имеют строгое ограничение по максимальной длине кабеля, соединяющего DAS-систему и подключаемый сервер.

К основным преимуществам DAS-систем можно отнести их низкую стоимость (в сравнении с другими решениями СХД), простоту развертывания и администрирования, а также высокую скорость обмена данными между системой хранения и сервером. Собственно, именно благодаря этому они завоевали большую популярность в сегменте малых офисов и небольших корпоративных сетей. В то же время DAS-системы имеют и свои недостатки, к которым можно отнести слабую управляемость и неоптимальную утилизацию ресурсов, поскольку каждая DAS-система требует подключения выделенного сервера.

В настоящее время DAS-системы занимают лидирующее положение, однако доля продаж этих систем постоянно уменьшается. На смену DAS-системам постепенно приходят либо универсальные решения с возможностью плавной миграции с NAS-системам, либо системы, предусматривающие возможность их использования как в качестве DAS-, так и NAS- и даже SAN-систем.

Системы DAS следует использовать при необходимости увеличения дискового пространства одного сервера и вынесения его за корпус. Также DAS-системы можно рекомендовать к применению для рабочих станций, обрабатывающих большие объемы информации (например, для станций нелинейного видеомонтажа).

Network Attached Storage (NAS)

NAS-системы - это сетевые системы хранения данных, непосредственно подключаемые к сети точно так же, как и сетевой принт-сервер, маршрутизатор или любое другое сетевое устройство (рис. 2). Фактически NAS-системы представляют собой эволюцию файл-серверов: разница между традиционным файл-сервером и NAS-устройством примерно такая же, как между аппаратным сетевым маршрутизатором и программным маршрутизатором на основе выделенного сервера.

Рис. 2. Пример NAS-системы хранения данных

Для того чтобы понять разницу между традиционным файл-сервером и NAS-устройством, давайте вспомним, что традиционный файл-сервер представляет собой выделенный компьютер (сервер), на котором хранится информация, доступная пользователям сети. Для хранения информации могут использоваться жесткие диски, устанавливаемые в сервер (как правило, они устанавливаются в специальные корзины), либо к серверу могут подключаться DAS-устройства. Администрирование файл-сервера производится с использованием серверной операционной системы. Такой подход к организации систем хранения данных в настоящее время является наиболее популярным в сегменте небольших локальных сетей, однако он имеет один существенный недостаток. Дело в том, что универсальный сервер (да еще в сочетании с серверной операционной системой) - это отнюдь не дешевое решение. В то же время большинство функциональных возможностей, присущих универсальному серверу, в файл-сервере просто не используется. Идея заключается в том, чтобы создать оптимизированный файл-сервер с оптимизированной операционной системой и сбалансированной конфигурацией. Именно эту концепцию и воплощает в себе NAS-устройство. В этом смысле NAS-устройства можно рассматривать как «тонкие» файл-серверы, или, как их иначе называют, файлеры (filers).

Кроме оптимизированной ОС, освобожденной от всех функций, не связанных с обслуживанием файловой системы и реализацией ввода-вывода данных, NAS-системы имеют оптимизированную по скорости доступа файловую систему. NAS-системы проектируются таким способом, что вся их вычислительная мощь фокусируется исключительно на операциях обслуживания и хранения файлов. Сама операционная система располагается во флэш-памяти и предустанавливается фирмой-производителем. Естественно, что с выходом новой версии ОС пользователь может самостоятельно «перепрошить» систему. Подсоединение NAS-устройств к сети и их конфигурирование представляет собой достаточно простую задачу и по силам любому опытному пользователю, не говоря уже о системном администраторе.

Таким образом, в сравнении с традиционными файловыми серверами NAS-устройства являются более производительными и менее дорогими. В настоящее время практически все NAS-устройства ориентированы на использование в сетях Ethernet (Fast Ethernet, Gigabit Ethernet) на основе протоколов TCP/IP. Доступ к устройствам NAS производится с помощью специальных протоколов доступа к файлам. Наиболее распространенными протоколами файлового доступа являются протоколы CIFS, NFS и DAFS.

CIFS (Common Internet File System System - общая файловая система Интернета) - это протокол, который обеспечивает доступ к файлам и сервисам на удаленных компьютерах (в том числе и в Интернет) и использует клиент-серверную модель взаимодействия. Клиент создает запрос к серверу на доступ к файлам, сервер выполняет запрос клиента и возвращает результат своей работы. Протокол CIFS традиционно используется в локальных сетях с ОС Windows для доступа к файлам. Для транспортировки данных CIFS использует TCP/IP-протокол. CIFS обеспечивает функциональность, похожую на FTP (File Transfer Protocol), но предоставляет клиентам улучшенный контроль над файлами. Он также позволяет разделять доступ к файлам между клиентами, используя блокирование и автоматическое восстановление связи с сервером в случае сбоя сети.

Протокол NFS (Network File System - сетевая файловая система) традиционно применяется на платформах UNIX и представляет собой совокупность распределенной файловой системы и сетевого протокола. В протоколе NFS также используется клиент-серверная модель взаимодействия. Протокол NFS обеспечивает доступ к файлам на удаленном хосте (сервере) так, как если бы они находились на компьютере пользователя. Для транспортировки данных NFS использует протокол TCP/IP. Для работы NFS в Интернeте был разработан протокол WebNFS.

Протокол DAFS (Direct Access File System - прямой доступ к файловой системе) - это стандартный протокол файлового доступа, который основан на NFS. Данный протокол позволяет прикладным задачам передавать данные в обход операционной системы и ее буферного пространства напрямую к транспортным ресурсам. Протокол DAFS обеспечивает высокие скорости файлового ввода-вывода и снижает загрузку процессора благодаря значительному уменьшению количества операций и прерываний, которые обычно необходимы при обработке сетевых протоколов.

DAFS проектировался с ориентацией на использование в кластерном и серверном окружении для баз данных и разнообразных Интернет-приложений, ориентированных на непрерывную работу. Он обеспечивает наименьшие задержки доступа к общим файловым ресурсам и данным, а также поддерживает интеллектуальные механизмы восстановления работоспособности системы и данных, что делает его привлекательным для использования в NAS-системах.

Резюмируя вышеизложенное, NAS-системы можно рекомендовать для использования в мультиплатформенных сетях в случае, когда требуется сетевой доступ к файлам и достаточно важными факторами являются простота установки администрирования системы хранения данных. Прекрасным примером является применение NAS в качестве файл-сервера в офисе небольшой компании.

Storage Area Network (SAN)

Собственно, SAN - это уже не отдельное устройство, а комплексное решение, представляющее собой специализированную сетевую инфраструктуру для хранения данных. Сети хранения данных интегрируются в виде отдельных специализированных подсетей в состав локальной (LAN) или глобальной (WAN) сети.

По сути, SAN-сети связывают один или несколько серверов (SAN-серверов) с одним или несколькими устройствами хранения данных. SAN-сети позволяют любому SAN-серверу получать доступ к любому устройству хранения данных, не загружая при этом ни другие серверы, ни локальную сеть. Кроме того, возможен обмен данными между устройствами хранения данных без участия серверов. Фактически SAN-сети позволяют очень большому числу пользователей хранить информацию в одном месте (с быстрым централизованным доступом) и совместно использовать ее. В качестве устройств хранения данных могут использоваться RAID-массивы, различные библиотеки (ленточные, магнитооптические и др.), а также JBOD-системы (массивы дисков, не объединенные в RAID).

Сети хранения данных начали интенсивно развиваться и внедряться лишь с 1999 года.

Подобно тому как локальные сети в принципе могут строиться на основе различных технологий и стандартов, для построения сетей SAN также могут применяться различные технологии. Но точно так же, как стандарт Ethernet (Fast Ethernet, Gigabit Ethernet) стал стандартом де-факто для локальный сетей, в сетях хранения данных доминирует стандарт Fibre Channel (FC). Собственно, именно развитие стандарта Fibre Channel привело к развитию самой концепции SAN. В то же время необходимо отметить, что все большую популярность приобретает стандарт iSCSI, на основе которого тоже возможно построение SAN-сетей.

Наряду со скоростными параметрами одним из важнейших преимуществ Fibre Channel является возможность работы на больших расстояниях и гибкость топологии. Концепция построения топологии сети хранения данных базируется на тех же принципах, что и традиционные локальные сети на основе коммутаторов и маршрутизаторов, что значительно упрощает построение многоузловых конфигураций систем.

Стоит отметить, что для передачи данных в стандарте Fibre Channel используются как оптоволоконные, так и медные кабели. При организации доступа к территориально удаленным узлам на расстоянии до 10 км используется стандартная аппаратура и одномодовое оптоволокно для передачи сигнала. Если же узлы разнесены на большее расстояние (десятки или даже сотни километров), применяются специальные усилители.

Топология SAN-сети

Типичный вариант SAN-сети на основе стандарта Fibre Channel показан на рис. 3. Инфраструктуру такой SAN-сети составляют устройства хранения данных с интерфейсом Fibre Channel, SAN-серверы (серверы, подключаемые как к локальной сети по интерфейсу Ethernet, так и к SAN-сети по интерфейсу Fiber Channel) и коммутационная фабрика (Fibre Channel Fabric), которая строится на основе Fibre Channel-коммутаторов (концентраторов) и оптимизирована для передачи больших блоков данных. Доступ сетевых пользователей к системе хранения данных реализуется через SAN-серверы. При этом важно, что трафик внутри SAN-сети отделен от IP-трафика локальной сети, что, безусловно, позволяет снизить загрузку локальной сети.

Рис. 3. Типичная схема SAN-сети

Преимущества SAN-сетей

К основным преимуществам технологии SAN можно отнести высокую производительность, высокий уровень доступности данных, отличную масштабируемость и управляемость, возможность консолидации и виртуализации данных.

Коммутационные фабрики Fiber Channel с неблокирующей архитектурой позволяют реализовать одновременный доступ множества SAN-серверов к устройствам хранения данных.

В архитектуре SAN данные могут легко перемещаться с одного устройства хранения данных на другое, что позволяет оптимизировать размещение данных. Это особенно важно в том случае, когда нескольким SAN-серверам требуется одновременный доступ к одним и тем же устройствам хранения данных. Отметим, что процесс консолидации данных невозможен в случае использования других технологий, как, например, при применении DAS-устройств, то есть устройств хранения данных, непосредственно подсоединяемых к серверам.

Другая возможность, предоставляемая архитектурой SAN, - это виртуализация данных. Идея виртуализации заключается в том, чтобы обеспечить SAN-серверам доступ не к отдельным устройствам хранения данных, а к ресурсам. То есть серверы должны «видеть» не устройства хранения данных, а виртуальные ресурсы. Для практической реализации виртуализации между SAN-серверами и дисковыми устройствами может размещаться специальное устройство виртуализации, к которому с одной стороны подключаются устройства хранения данных, а с другой - SAN-серверы. Кроме того, многие современные FC-коммутаторы и HBA-адаптеры предоставляют возможность реализации виртуализации.

Следующая возможность, предоставляемая SAN-сетями, - это реализация удаленного зеркалирования данных. Принцип зеркалирования данных заключается в дублировании информации на несколько носителей, что повышает надежность хранения информации. Примером простейшего случая зеркалирования данных может служить объединение двух дисков в RAID-массив уровня 1. В данном случае одна и та же информация записывается одновременно на два диска. Недостатком такого способа можно считать локальное расположение обоих дисков (как правило, диски находятся в одной и той же корзине или стойке). Сети хранения данных позволяют преодолеть этот недостаток и предоставляют возможность организации зеркалирования не просто отдельных устройств хранения данных, а самих SAN-сетей, которые могут быть удалены друг от друга на сотни километров.

Еще одно преимущество SAN-сетей заключается в простоте организации резервного копирования данных. Традиционная технология резервного копирования, которая используется в большинстве локальных сетей, требует выделенного Backup-сервера и, что особенно важно, выделенной полосы пропускания сети. Фактически во время операции резервного копирования сам сервер становится недоступным для пользователей локальной сети. Собственно, именно поэтому резервное копирование производится, как правило, в ночное время.

Архитектура сетей хранения данных позволяет принципиально по-иному подойти к проблеме резервного копирования. В этом случае Backup-сервер является составной частью SAN-сети и подключается непосредственно к коммутационной фабрике. В этом случае Backup-трафик оказывается изолированным от трафика локальной сети.

Оборудование, используемое для создания SAN-сетей

Как уже отмечалось, для развертывания SAN-сети требуются устройства хранения данных, SAN-серверы и оборудование для построения коммутационной фабрики. Коммутационные фабрики включают как устройства физического уровня (кабели, коннекторы), так и устройства подключения (Interconnect Device) для связи узлов SAN друг с другом, устройства трансляции (Translation devices), выполняющие функции преобразования протокола Fibre Channel (FC) в другие протоколы, например SCSI, FCP, FICON, Ethernet, ATM или SONET.

Кабели

Как уже отмечалось, для соединения SAN-устройств стандарт Fibre Channel допускает использование как волоконно-оптических, так и медных кабелей. При этом в одной SAN-сети могут применяться различные типы кабелей. Медный кабель используется для коротких расстояний (до 30 м), а волоконно-оптический - как для коротких, так и для расстояний до 10 км и больше. Применяют как многомодовый (Multimode), так и одномодовый (Singlemode) волоконно-оптические кабели, причем многомодовый используется для расстояний до 2 км, а одномодовый - для больших расстояний.

Сосуществование различных типов кабелей в пределах одной SAN-сети обеспечивается посредством специальных конверторов интерфейсов GBIC (Gigabit Interface Converter) и MIA (Media Interface Adapter).

В стандарте Fibre Channel предусмотрено несколько возможных скоростей передачи (см. таблицу). Отметим, что в настоящее время наиболее распространены FC-устройства стандартов 1, 2 и 4 GFC. При этом обеспечивается обратная совместимость более скоростных устройств с менее скоростными, то есть устройство стандарта 4 GFC автоматически поддерживает подключение устройств стандартов 1 и 2 GFC.

Устройства подключения (Interconnect Device)

В стандарте Fibre Channel допускается использование различных сетевых топологий подключения устройств, таких как «точка-точка» (Point-to-Point), кольцо с разделяемым доступом (Arbitrated Loop, FC-AL) и коммутируемая связная архитектура (switched fabric).

Топология «точка-точка» может применяться для подключения сервера к выделенной системе хранения данных. В этом случае данные не используются совместно с серверами SAN-сети. Фактически данная топология является вариантом DAS-системы.

Для реализации топологии «точка-точка», как минимум, необходим сервер, оснащенный адаптером Fibre Channel, и устройство хранения данных с интерфейсом Fibre Channel.

Топология кольца с разделенным доступом (FC-AL) подразумевает схему подключения устройств, при котором данные передаются по логически замкнутому контуру. При топологии кольца FC-AL в качестве устройств подключения могут выступать концентраторы или коммутаторы Fibre Channel. При использовании концентраторов полоса пропускания делится между всеми узлами кольца, в то время как каждый порт коммутатора предоставляет протокольную полосу пропускания для каждого узла.

На рис. 4 показан пример кольца Fibre Channel с разделением доступа.

Рис. 4. Пример кольца Fibre Channel с разделением доступа

Конфигурация аналогична физической звезде и логическому кольцу, используемым в локальных сетях на базе технологии Token Ring. Кроме того, как и в сетях Token Ring, данные перемещаются по кольцу в одном направлении, но, в отличие от сетей Token Ring, устройство может запросить право на передачу данных, а не ждать получения пустого маркера от коммутатора. Кольца Fibre Channel с разделением доступа могут адресовать до 127 портов, однако, как показывает практика, типичные кольца FC-AL содержат до 12 узлов, а после подключения 50 узлов производительность катастрофически снижается.

Топология коммутируемой связной архитектуры (Fibre Channel switched-fabric) реализуется на базе Fibre Channel-коммутаторов. В данной топологии каждое устройство имеет логическое подключение к любому другому устройству. Фактически Fibre Channel-коммутаторы связной архитектуры выполняют те же функции, что и традиционные Ethernet-коммутаторы. Напомним, что, в отличие от концентратора, коммутатор - это высокоскоростное устройство, которое обеспечивает подключение по схеме «каждый с каждым» и обрабатывает несколько одновременных подключений. Любой узел, подключенный к Fibre Channel-коммутатору, получает протокольную полосу пропускания.

В большинстве случаев при создании крупных SAN-сетей используется смешанная топология. На нижнем уровне применяются FC-AL-кольца, подключенные к малопроизводительным коммутаторам, которые, в свою очередь, подключаются к высокоскоростным коммутаторам, обеспечивающим максимально возможную пропускную способность. Несколько коммутаторов могут быть соединены друг с другом.

Устройства трансляции

Устройства трансляции являются промежуточными устройствами, выполняющими преобразование протокола Fibre Channel в протоколы более высоких уровней. Эти устройства предназначены для соединения Fibre Channel-сети с внешней WAN-сетью, локальной сетью, а также для присоединения к Fibre Channel-сети различных устройств и серверов. К таким устройствам относятся мосты (Bridge), Fibre Channel-адаптеры (Host Bus Adapters (HBA), маршрутизаторы, шлюзы и сетевые адаптеры. Классификация устройств трансляции показана на рис. 5.

Рис. 5. Классификация устройств трансляции

Наиболее распространенными устройствами трансляции являются HBA-адаптеры с интерфейсом PCI, которые применяются для подключения серверов к сети Fibre Channel. Сетевые адаптеры позволяют подключать локальные Ethernet-сети к сетям Fibre Channel. Мосты используются для подключения устройств хранения данных с SCSI интерфейсом к сети на базе Fibre Channel. Cледует отметить, что в последнее время практически все устройства хранения данных, которые предназначены для применения в SAN, имеют встроенный Fibre Channel и не требуют использования мостов.

Устройства хранения данных

В качестве устройств хранения данных в SAN-сетях могут использоваться как жесткие диски, так и ленточные накопители. Если говорить о возможных конфигурациях применения жестких дисков в качестве устройств хранения данных в SAN-сетях, то это могут быть как массивы JBOD, так и RAID-массивы дисков. Традиционно устройства хранения данных для SAN-сетей выпускаются в виде внешних стоек или корзин, оснащенных специализированным RAID-контроллером. В отличие от NAS- или DAS-устройств, устройства для SAN-систем оснащаются Fibre Channel-интерфейсом. При этом сами диски могут иметь как SCSI-, так и SATA-интерфейс.

Кроме устройств хранения на основе жестких дисков, в SAN-сетях широкое применение находят ленточные накопители и библиотеки.

SAN-серверы

Серверы для сетей SAN отличаются от обычных серверов приложений только одной деталью. Кроме сетевого Ethernet-адаптера, для взаимодействия сервера с локальной сетью они оснащаются HBA-адаптером, что позволяет подключать их к SAN-сетям на основе Fibre Channel.

Системы хранения данных компании Intel

Далее мы рассмотрим несколько конкретных примеров устройств хранения данных компании Intel. Строго говоря, компания Intel не выпускает законченных решений и занимается разработкой и производством платформ и отдельных компонентов для построения систем хранения данных. На основе данных платформ многие компании (в том числе и целый ряд российских компаний) производят уже законченные решения и продают их под своими логотипами.

Intel Entry Storage System SS4000-E

Система хранения данных Intel Entry Storage System SS4000-E представляет собой NAS-устройство, предназначенное для применения в небольших и средних офисах и многоплатформенных локальных сетях. При использовании системы Intel Entry Storage System SS4000-E разделяемый сетевой доступ к данным получают клиенты на основе Windows-, Linux- и Macintosh-платформ. Кроме того, Intel Entry Storage System SS4000-E может выступать как в роли DHCP-сервера, так и DHCP-клиента.

Система хранения данных Intel Entry Storage System SS4000-E представляет собой компактную внешнюю стойку с возможностью установки до четырех дисков с интерфейсом SATA (рис. 6). Таким образом, максимальная емкость системы может составлять 2 Тбайт при использовании дисков емкостью 500 Гбайт.

Рис. 6. Система хранения данных Intel Entry Storage System SS4000-E

В системе Intel Entry Storage System SS4000-E применяется SATA RAID-контроллер с поддержкой уровней RAID-массивов 1, 5 и 10. Поскольку данная система является NAS-устройством, то есть фактически «тонким» файл-сервером, система хранения данных должна иметь специализированный процессор, память и прошитую операционную систему. В качестве процессора в системе Intel Entry Storage System SS4000-E применяется Intel 80219 с тактовой частотой 400 МГц. Кроме того, система оснащена 256 Мбайт памяти DDR и 32 Мбайт флэш-памяти для хранения операционной системы. В качестве операционной системы используется Linux Kernel 2.6.

Для подключения к локальной сети в системе предусмотрен двухканальный гигабитный сетевой контроллер. Кроме того, имеются также два порта USB.

Устройство хранения данных Intel Entry Storage System SS4000-E поддерживает протоколы CIFS/SMB, NFS и FTP, а настройка устройства реализуется с использованием web-интерфейса.

В случае применения Windows-клиентов (поддерживаются ОС Windows 2000/2003/XP) дополнительно имеется возможность реализации резервного копирования и восстановления данных.

Intel Storage System SSR212CC

Система Intel Storage System SSR212CC представляет собой универсальную платформу для создания систем хранения данных типа DAS, NAS и SAN. Эта система выполнена в корпусе высотой 2 U и предназначена для монтажа в стандартную 19-дюймовую стойку (рис. 7). Система Intel Storage System SSR212CC поддерживает установку до 12 дисков с интерфейсом SATA или SATA II (поддерживается функция горячей замены), что позволяет наращивать емкость системы до 6 Тбайт при использовании дисков емкостью по 550 Гбайт.

Рис. 7. Система хранения данных Intel Storage System SSR212CC

Фактически система Intel Storage System SSR212CC представляет собой полноценный высокопроизводительный сервер, функционирующий под управлением операционных систем Red Hat Enterprise Linux 4.0, Microsoft Windows Storage Server 2003, Microsoft Windows Server 2003 Enterprise Edition и Microsoft Windows Server 2003 Standard Edition.

Основу сервера составляет процессор Intel Xeon с тактовой частотой 2,8 ГГц (частота FSB 800 МГц, размер L2-кэша 1 Мбайт). Система поддерживает использование памяти SDRAM DDR2-400 с ECC максимальным объемом до 12 Гбайт (для установки модулей памяти предусмотрено шесть DIMM-слотов).

Система Intel Storage System SSR212CC оснащена двумя RAID-контроллерами Intel RAID Controller SRCS28Xs с возможностью создания RAID-массивов уровней 0, 1, 10, 5 и 50. Кроме того, система Intel Storage System SSR212CC имеет двухканальный гигабитный сетевой контроллер.

Intel Storage System SSR212MA

Система Intel Storage System SSR212MA представляет собой платформу для создания систем хранения данных в IP SAN-сетях на основе iSCSI.

Данная система выполнена в корпусе высотой 2 U и предназначена для монтажа в стандартную 19-дюймовую стойку. Система Intel Storage System SSR212MA поддерживает установку до 12 дисков с интерфейсом SATA (поддерживается функция горячей замены), что позволяет наращивать емкость системы до 6 Тбайт при использовании дисков емкостью по 550 Гбайт.

По своей аппаратной конфигурации система Intel Storage System SSR212MA не отличается от системы Intel Storage System SSR212CC.

Как известно, в последнее время наблюдается интенсивное увеличение объемов накапливаемой информации и данных. Исследование, проведенное IDC «Цифровая вселенная», продемонстрировало, что мировой объем цифровой информации к 2020 г. способен увеличиться с 4,4 зеттебайт до 44 зеттебайт. По словам экспертов, каждые два года объем цифровой информации удваивается. Поэтому сегодня чрезвычайно актуальной является проблема не только обработки информации, но также и ее хранения.

Для решения данного вопроса в настоящее время наблюдается весьма активное развитие такого направления, как развитие СХД (сетей/систем хранения данных). Попробуем разобраться, что именно современная ИТ-индустрия подразумевает под понятием «система хранения данных».

СХД – это программно-аппаратное комплексное решение, направленное на организацию надежного и качественного хранения различных информационных ресурсов, а также предоставления бесперебойного доступа к этим ресурсам.

Создание подобного комплекса должно помочь в решении самых разных задач, встающих перед современным бизнесом в ходе построения цельной информационной системы.

Основные компоненты СХД :

Устройства хранения (ленточная библиотека, внутренний либо внешний дисковый массив);

Система мониторинга и управления;

Подсистема резервного копирования/ архивирования данных;

Программное обеспечение управления хранением;

Инфраструктура доступа ко всем устройствам хранения.

Основные задачи

Рассмотрим наиболее типичные задачи:

Децентрализация информации. Некоторые организации обладают развитой филиальной структурой. Каждое отдельное подразделение такой организации должно обладать свободным доступом ко всей информации, необходимой ему для работы. Современные СХД взаимодействуют с пользователями, которые находится на большом расстоянии от центра, где выполняется обработка данных, поэтому способны решить эту задачу.

Невозможность предусмотреть конечные требуемые ресурсы. Во время планирования проекта определить, с каким именно объемами информации придется работать во время эксплуатации системы, бывает крайне сложно. Кроме этого, постоянно увеличивается масса накапливаемых данных. Большинство современных СХД обладает поддержкой масштабируемости (способности наращивать свою производительность после добавления ресурсов), поэтому мощность системы можно будет увеличивать пропорционально возрастанию нагрузок (производить апгрейд).

Безопасность всей хранимой информации. Проконтролировать, а также ограничить доступ к информационным ресурсам предприятия бывает довольно сложно. Неквалифицированные действия обслуживающего персонала и пользователей, умышленные попытки вредительства – все это способно нанести хранящимся данным значительный вред. Современные СХД используют различные схемы отказоустойчивости, позволяющие противостоять как умышленным диверсиям, так и неумелым действиям неквалифицированных сотрудников, сохранив тем самым работоспособность системы.

Сложность управления распределенными информационными потоками – любое действие, направленное на изменение распределенных информационных данных в одном из филиалов, неизбежно создает ряд проблем – от сложности синхронизации разных баз данных и версий файлов разработчиков до ненужного дублирования информации. Программные продукты управления, поставляемые вместе с СХД , помогут вам оптимально упростить и эффективно оптимизировать работу с хранимой информацией.

Высокие расходы. Как показали результаты проведенного IDC Perspectives исследования, расходы на хранение данных составляют порядка двадцати трех процентов от всех расходов на IT. Эти расходы включают стоимость программной и аппаратной частей комплекса, выплаты обслуживающему персоналу и пр. Использование СХД позволяет сэкономить на администрировании системы, а также обеспечивает снижение расходов на персонал.


Основные типы СХД

Все системы хранения данных подразделяются на 2 типа: ленточные и дисковые СХД . Каждый из двух вышеупомянутых видов делится, в свою очередь, на несколько подвидов.

Дисковые СХД

Такие системы хранения данных используются для создания резервных промежуточных копий, а также оперативной работы с различными данными.

Дисковые СХД подразделяются на следующие подвиды:

Устройства для резервных копий (различные дисковые библиотеки);

Устройства для рабочих данных (оборудование, характеризующееся высокой производительностью);

Устройства, используемые для длительного хранения архивов.


Ленточные СХД

Используются для создания архивов, а также резервных копий.

Ленточные СХД подразделяются на следующие подвиды:

Ленточные библиотеки (два либо более накопителей, большое количество слотов для лент);

Автозагрузчики (1 накопитель, несколько слотов, предназначенных для лент);

Отдельные накопители.

Основные интерфейсы подключения

Выше мы рассмотрели основные типы систем, а теперь давайте разберемся подробнее со структурой самих СХД . Современные системы хранения данных подразделяются в соответствии с типом используемых ими интерфейсов подключения хостов. Рассмотрим ниже 2 наиболее распространенных внешних интерфейса подключения - SCSI и FibreChannel. Интерфейс SCSI напоминает широко распространенный IDE и представляет собой параллельный интерфейс, который допускает размещение на одной шине от шестнадцати устройств (для IDE, как известно, два устройства на канал). Максимальная скорость SCSI протокола сегодня составляет 320 мегабайт в секунду (версия, которая будет обеспечивать скорость в 640 мегабайт в секунду, сегодня находится в разработке). Недостатки SCSI следующие – неудобные, не обладающие помехозащищенностью, слишком толстые кабели, максимальная длина которых не превышает двадцати пяти метров. Сам протокол SCSI тоже накладывает определенные ограничения – как правило, это 1 инициатор на шине плюс ведомые устройства (стримеры, диски и пр.).

Интерфейс FibreChannel используется реже, чем интерфейс SCSI, так как оборудование, используемое для данного интерфейса, стоит дороже. Кроме этого, FibreChannel используется для развертывания крупных SAN сетей хранения данных, поэтому используется он только в крупных компаниях. Расстояния могут быть, практически, любыми – от стандартных трехсот метров на типовом оборудовании до двух тысяч километров для мощных коммутаторов («директоров»). Основным преимуществом интерфейса FibreChannel является возможность объединить многие устройства хранения и хосты (сервера) в общую SAN сеть хранения данных. Менее важными преимуществами являются: большие, чем со SCSI, расстояния, возможность агрегирования каналов и резервирования путей доступа, возможность «горячего подключения» оборудования, более высокая помехозащищенность. Используются двухжильные одно- и многомодовые оптические кабели (с коннекторами типа SC либо LC), а также SFP – оптические трансмиттеры, изготавливаемые на основе лазерных либо светодиодных излучателей (от этих компонентов зависит максимальное расстояние между используемыми устройствами, а также скорость передачи).

Варианты топологий СХД

Традиционно СХД используется для подключения серверов к DAS – системе хранения данных. Кроме DAS существуют еще и NAS – устройства хранения данных, которые подключаются к сети, а также SAN – составляющие сетей хранения данных. SAN и NAS системы были созданы как альтернатива архитектуре DAS. При этом каждое из вышеупомянутых решений разрабатывалось в качестве ответа на постоянно увеличивающиеся требования к современным системам хранения данных и основывалось на применении доступных на тот момент технологий.

Архитектуры первых сетевых систем хранения разработаны были в 1990-х годах для устранения наиболее ощутимых недостатков DAS систем. Сетевые решения в сфере систем хранения были предназначены для реализации вышеперечисленных задач: снижения затрат и сложности управления данными, уменьшения трафика локальных сетей, повышения общей производительности и степени готовности данных. При этом архитектуры SAN и NAS решают разные аспекты одной общей проблемы. В результате одновременно стали существовать 2 сетевые архитектуры. Каждая из них обладает собственными функциональными возможностями и преимуществами.

DAS


(D irect A ttached S torage) – это архитектурное решение, используемое в случаях, когда устройство, применяемое для хранения цифровых данных, подключено по протоколу SAS через интерфейс непосредственно к серверу либо к рабочей станции.


Основные преимущества DAS систем: невысокая, сравнительно с остальными решениями СХД, стоимость, простота развертывания, а также администрирования, высокоскоростной обмен данными между сервером и системой хранения.

Вышеперечисленные преимущества позволили DAS системам стать чрезвычайно популярными в сегменте небольших корпоративных сетей, хостинг-провайдеров и малых офисов. Но при этом у DAS-систем имеются и свои недостатки, например, не оптимальная утилизация ресурсов, объясняемая тем, что для каждой DAS-системы требуется подключение выделенного сервера, кроме этого, каждая такая система позволяет подключить к дисковой полке не больше двух серверов в определенной конфигурации.

Преимущества:

Доступная стоимость. СХД представляет собой по сути установленную за пределами сервера дисковую корзину, снабженную жесткими дисками.

Обеспечение высокоскоростного обмена между сервером и дисковым массивом.


Недостатки:

Недостаточная надежность – в случае аварии либо возникновения в сети каких-либо проблем сервера перестают быть доступными ряду пользователей.

Высокая латентность, возникающая из-за того, что все запросы обрабатываются одним сервером.

Низкая управляемость – доступность всей емкости одному серверу уменьшает гибкость распределения данных.

Низкая утилизация ресурсов – требуемые объемы данных предсказать сложно: одни устройства DAS в организации могут испытывать избыток емкости, а другим может ее не хватать, поскольку перераспределение емкости обычно бывает слишком трудоемким либо вовсе невозможным.

NAS


(N etwork A ttached S torage) – это интегрированная отдельно стоящая дисковая система, включающая в себя NAS сервер с собственной специализированной операционной системой и набором полезных для пользователей функций, обеспечивающих быстрый запуск системы, а также доступ к любым файлам. Подключается система к обыкновенной компьютерной сети, позволяя пользователям данной сети решить проблему недостатка свободного дискового пространства.

NAS - хранилище, которое подключается к сети как обычное сетевое устройство, обеспечивая файловый доступ к цифровым данным. Любое устройство NAS представляет собой комбинацию системы хранения данных и сервера, к которому подключена эта система. Простейшим вариантом NAS устройства является сетевой сервер, который предоставляет файловые ресурсы.

Состоят NAS устройства из головного устройства, которое выполняет обработку данных, а также соединяет цепочку дисков в единую сеть. NAS обеспечивают использование систем хранения данных в сетях Ethernet. Совместный доступ к файлам организуется в них при помощи протокола TCP/IP. Подобные устройства обеспечивают совместное использование файлов даже теми клиентами, системы которых функционируют под управлением разных операционных систем. В отличие от DAS архитектуры, в NAS системах сервера для повышения общей емкости в автономный режим можно не переводить; добавлять диски в структуру NAS можно посредством простого подключения устройства в сеть.

NAS технология развивается сегодня в качестве альтернативы универсальным серверам, несущим в себе большое количество различных функций (электронная почта, факс сервер, приложения, печать и пр.). NAS-устройства, в отличие от универсальных серверов, выполняют всего одну функцию – файлового сервера, стараясь делать это максимально быстро, просто и качественно.

Подключение NAS к ЛВС обеспечивает доступ к цифровой информации неограниченному числу гетерогенных клиентов (то есть клиентов с разными операционными системами) либо другим серверам. Сегодня практически все устройства NAS используются в сетях Ethernet на основе TCP/IP протоколов. Доступ к NAS устройствам осуществляется посредством использования специальных протоколов доступа. Самые распространенные протоколы файлового доступа – DAFS, NFS, CIFS. Внутри таких серверов устанавливаются специализированные операционные системы.

NAS-устройство может выглядеть как обычная «коробочка», снабженная одним портом Ethernet, а также парой жестких дисков, а может представлять собой огромную систему, снабженную несколькими специализированными серверами, огромным количеством дисков, а также внешних Ethernet-портов. Иногда устройства NAS представляют собой часть SAN-сети. В этом случае они собственных накопителей не имеют, а лишь предоставляют доступ к тем данным, которые располагаются на блочных устройствах. В данном случае NAS выступает как мощный специализированный сервер, а SAN – как устройство хранения данных. Из SAN и NAS компонентов в данном случае формируется единая DAS топология.

Преимущества

Невысокая стоимость, доступность ресурсов для отдельных серверов, а также для любого компьютера организации.

Универсальность (один сервер способен обслуживать клиентов Unix, Novell, MS, Mac).

Простота развертывания, а также администрирования.

Простота совместного использования ресурсов.


Недостатки

Доступ к информации посредством протоколов сетевых файловых систем часто бывает более медленным, чем доступ к локальному диску.

Большая часть доступных по цене NAS-серверов не в состоянии обеспечивать гибкий, скоростной метод доступа, который обеспечивается современными SAN системами (на уровне блоков, а не файлов).

SAN


(S torage A rea N etwork) - это архитектурное решение позволяет подключать к серверам внешние устройства хранения данных (ленточные библиотеки, дисковые массивы, оптические накопители и пр.). При таком подключении внешние устройства распознаются операционной системой как локальные. Использование SAN сети позволяет снизить совокупную стоимость содержания системы хранения данных и позволяет современным организациям организовать надежное хранение своей информации.

Простейший вариант SAN – это СХД , сервера и коммутаторы, объединенные оптическими каналами связи. Кроме дисковых систем хранения данных, в SAN могут быть подключены дисковые библиотеки, стримеры (ленточные библиотеки), устройства, используемые для хранения информации на оптических дисках и пр.

Преимущества

Надежностью доступа к тем данным, которые находятся на внешних системах.

Независимость SAN топологии от используемых серверов и систем хранения данных.

Безопасность и надежность централизованного хранения данных.

Удобство централизованного управления данными и коммутацией.

Возможность перенести в отдельную сеть трафика ввода-вывода, обеспечивающая разгрузку LAN.

Низкая латентность и высокое быстродействие.

Гибкость и масштабируемость логической структуры SAN.

Фактическая неограниченность географических размеров SAN.

Возможность оперативного распределения ресурсов между серверами.

Простота схемы резервного копирования, обеспечиваемая тем, что все данные располагаются в одном месте.

Возможность создания отказоустойчивых кластерных решений на основе имеющейся SAN без дополнительных затрат.

Наличие дополнительных сервисов и возможностей, таких как удаленная репликация, снапшоты и пр.

Высокий уровень безопасности SAN/


Единственным недостатком подобных решений является их высокая стоимость. В целом, отечественный рынок систем хранения данных отстает от рынка развитых западных государств, для которого характерно широкое использование СХД . Высокая стоимость и дефицит скоростных каналов связи – главные причины, тормозящие развитие российского рынка СХД .

RAID

Говоря о системах хранения данных, обязательно следует рассмотреть и одну и главных технологий, лежащих в основе работы таких систем и повсеместно используемых в современной IT-индустрии. Мы имеем в виду RAID-массивы.

RAID-массив состоит из нескольких дисков, которые управляются контроллером и связаны между собой посредством скоростных каналов передачи данных. Внешней системой такие диски (запоминающие устройства) воспринимаются в качестве единого целого. Тип используемого массива непосредственным образом влияет на степень быстродействия и отказоустойчивости. RAID-массивы используются для увеличения надежности хранения данных, а также для повышения скорости записи/чтения.

Существует несколько уровней RAID, используемых при создании сетей хранения данных. Чаще всего используются следующие уровни:

1. Это дисковый массив увеличенной производительности, без отказоустойчивости, с чередованием.
Информация разбивается на отдельные блоки данных. Записывается она одновременно на два либо несколько дисков.

Плюсы:

Суммируется объем памяти.

Значительное увеличение производительности (количество дисков непосредственно влияет на кратность повышения производительности).


Минусы:

Надежность RAID 0 ниже надежности даже самого ненадежного диска, поскольку в случае отказа любого из дисков, весь массив становится неработоспособным.


2. – дисковый зеркальный массив. Этот массив состоит из пары дисков, полностью копирующих друг друга.

Плюсы:

Обеспечение при распараллеливании запросов приемлемой скорости записи, а также выигрыша по скорости чтения.

Обеспечение высокой надежности – дисковый массив такого типа функционирует до того времени, пока в нем работает хотя бы 1 диск. Вероятность поломки одновременно 2-х дисков, равная произведению вероятностей поломки каждого из них, намного ниже, чем вероятность поломки одного диска. При поломке одного диска на практике необходимо немедленно принимать меры, вновь восстанавливая избыточность. Для этого рекомендуется с RAID любого уровня (за исключением нулевого) применять диски горячего резерва.


Минусы:

Недостаток RAID 1 состоит только в том, что пользователь получает один жесткий диск по цене двух дисков.



3. . Это построенный из RAID 1 массивов массив RAID 0.

4. RAID 2 . Используется для массивов, применяющих код Хемминга.

Массивы данного типа основываются на применении кода Хемминга. Диски подразделяются на 2 группы: для данных, а также для кодов, используемых для коррекции ошибок. Данные по дискам, используемым для хранения информации, распределяются аналогично распределению в RAID 0, то есть они разбиваются на блоки небольшого размера в соответствии с количеством дисков. На оставшихся дисках хранятся все коды коррекции ошибок, которые помогают восстановить информацию в случае, если один из жестких дисков выйдет из строя. Метод Хемминга, используемый в ЕСС памяти, дает возможность исправлять на лету однократные ошибки, а также обнаруживать двукратные.

RAID 3 , RAID 4 . Это массивы дисковые с чередованием, а также выделенным диском четности. В RAID 3 данные из n дисков разбиваются на составляющие размером меньше сектора (на блоки либо байты), после чего распределяются по дискам n-1. На одном диске хранятся блоки четности. В массиве RAID 2 для данной цели использовался n-1 диск, однако большинство информации на контрольных дисках использовалось для коррекции на лету ошибок, тогда как большинству пользователей при поломке диска достаточно простого восстановления информации (для этого бывает достаточно информации, которая помещается на одном жестком диске).

Массив RAID 4 напоминает RAID 3, однако, данные на нем разбиваются не на отдельные байты, а на блоки. Это отчасти позволило решить проблему недостаточно высокой скорости передачи данных, имеющих небольшой объем. Запись при этом осуществляется чересчур медленно из-за того, что при записи генерируется четность для блока, записываясь на единственный диск.
От RAID 2 RAID 3 отличается невозможностью скорректировать ошибки на лету, а также меньшей избыточностью.

Плюсы:

Облачные провайдеры тоже осуществляют активные закупки для своих нужд систем хранения данных, к примеру, Facebook и Google строят из готовых компонентов по индивидуальному заказу собственные серверы, но эти серверы в отчете IDC не учитываются.

Также в компании IDC ожидают, что вскоре развивающиеся рынки в отношении потребления СХД существенно обгонят рынки развитые, поскольку им свойственны более высокие темпы экономического роста. К примеру, регион Восточной и Центральной Европы, Африки и Ближнего Востока в 2014 г. по расходам на системы хранения данных превзойдет Японию. К 2015 г. Азиатско-Тихоокеанский регион, исключая Японию, по объему потребления систем хранения данных превзойдет Западную Европу.

Выполняемая нашей компанией «Навигатор» продажа систем хранения данных дает возможность каждому желающему получить надежную и долговечную основу для хранения своих мультимедийных данных. Широкий выбор Raid массивов, сетевых хранилищ и прочих систем дает возможность в индивидуальном порядке подобрать для каждого заказа RAID со второго по четвертый является невозможность осуществления параллельных операций записи, объясняемая тем, что для хранения цифровой информации о четности применяется отдельный контрольный диск. У RAID 5 вышеупомянутый недостаток отсутствует. Запись контрольных сумм и блоков данных осуществляется автоматически на все диски, асимметричность конфигурации дисков отсутствует. Под контрольными суммами имеется в виду результат операции XOR.XOR дает возможность заменить результатом любой операнд и, использовав алгоритм XOR, в результате получить недостающий операнд. Чтобы сохранить результат XOR , необходим всего один диск (размер его идентичен размеру любого диска в raid).

Плюсы:

Популярность RAID5 объясняется, прежде всего, его экономичностью. На запись на том RAID5 тратятся дополнительные ресурсы, что приводит в итоге к падению производительности, поскольку необходимы дополнительные вычисления, а также операции записи. Но зато при чтении (в сравнении с отдельным жестким диском) имеется определенный выигрыш, состоящий в том, что идущие с нескольких дисков потоки данных могут обрабатываться параллельно.


Минусы:

RAID 5 характеризуется намного более низкой производительностью, особенно при проведении операций, связанных с записью в произвольном порядке (типа Random Write), при которых производительность уменьшается на 10-25 процентов от производительности RAID 10 или RAID 0. Происходит это потому, что данному процессу требуется больше операций с дисками (происходит замена каждой операции записи сервера на RAID контроллере на 3 операции – 1 операцию чтения и 2 операции записи). Минусы RAID 5 проявляются тогда, когда из строя выходит один диск – при этом наблюдается переход всего тома в критический режим, все операции чтения и записи сопровождаются дополнительными манипуляциями, что приводит к резкому падению производительности. Уровень надежности при этом падает до уровня надежности RAID 0, снабженного соответствующим количеством дисков, становясь в n раз меньше надежности одиночного диска. В случае, если до восстановления массива выйдет из строя еще хоть один диск либо на нем возникнет невосстановимая ошибка, массив разрушится, причем данные на нем обычными методами восстановить не удастся. Учтите также, что процесс восстановления за счет избыточности данных RAID, носящий название RAID Reconstruction, после того, как диск выйдет из строя, вызовет интенсивную непрерывную нагрузку чтения со всех дисков, которая будет сохраняться в течение многих часов. В результате этого один из оставшихся дисков может выйти из строя. Также могут выявиться не обнаруженные ранее сбои чтения данных вcold data массивах (тех данных, к которым во время обычной работы массива не обращаются – малоактивных и архивных), что приводит к повышению риска сбоя во время восстановления данных.



6. – это массив RAID 50, который построен из массивов RAID5;

7. – массив дисковый с чередованием, который использует 2 контрольные суммы, вычисляемые 2-мя независимыми способами.

RAID 6 во многом аналогичен RAID 5, однако отличается от него более высокой степенью надежности: в нем под контрольные суммы происходит выделение емкости двух дисков, две суммы рассчитываются по различным алгоритмам. Необходим RAID-контроллер более высокой мощности. Помогает защитить от кратного отказа, обеспечивая работоспособность после выхода из строя одновременно двух дисков. Организация массива требует использования минимум четырех дисков. Использование RAID-6 обычно приводит к падению производительности дисковой группы приблизительно на 10-15 процентов. Это объясняется большим объемом информации, которую приходится обрабатывать контроллеру (появляется необходимость в расчете второй контрольной суммы, а также чтении и перезаписи большего количества дисковых блоков в процессе записи каждого из блоков).

8. – это массив RAID 0, который построен из массивов RAID6.

9. Hybrid RAID . Это еще один уровень массива RAID, ставший в последнее время достаточно популярным. Это обычные уровни RAID, используемые вместе с дополнительным программным обеспечением, а также SSD-дисками, которые применяются в качестве кэша для чтения. Это приводит к увеличению производительности системы, объясняемой тем, что SSD, в сравнении с HDD, обладают намного лучшими скоростными характеристиками. Сегодня существует несколько реализаций, к примеру, Crucial Adrenaline, а также несколько бюджетных контроллеров Adaptec. В настоящее время использование Hybrid RAID из-за маленького ресурса SSD-дисков не рекомендуется.


Операции считывания в Hybrid RAID выполняются с твердотельного накопителя, обладающего большей скоростью, а операции записи осуществляются и на твердотельных накопителях, и на жестких дисках (делается это с целью выполнения резервирования).
Hybrid RAID отлично подходит для приложений, использующих данные нижнего уровня (виртуальной вычислительной машины, файлового сервера либо интернет-шлюза).

Особенности современного рынка СХД

Аналитическая компания IDC летом 2013 г. обнародовала очередной свой прогноз для рынка СХД , рассчитанный ею до 2017 г. Подсчеты аналитиков демонстрируют, что в ближайшее четырехлетие мировыми предприятиями будут закуплены СХД , общая емкость которых составит сто тридцать восемь экзабайт. Совокупная реализуемая мощность систем хранения ежегодно будет увеличиваться примерно на тридцать процентов.

Тем не менее, в сравнении с предыдущими годами, когда наблюдался бурный рост потребления хранилищ данных, темпы этого роста несколько замедлятся, так как сегодня большинство компаний использует облачные решения, отдавая предпочтение технологиям, оптимизирующим хранилища данных. Экономия места в хранилищах достигается при помощи таких средств, как виртуализация, сжатие данных, дедупликация данных и пр. Все вышеперечисленные средства обеспечивают экономию места, позволяя компаниям избегать спонтанных покупок и прибегать к приобретению новых систем хранения лишь тогда, когда в них действительно имеется необходимость.

Из 138 экзабайт, продажа которых ожидается в 2017 г., 102 экзабайта будет приходиться на внешние СХД , а 36 – на внутренние. В 2012 г. было реализовано СХД на двадцать экзабайт для внешних систем и на восемь – для внутренних. Финансовые затраты на промышленные СХД ежегодно будут увеличиваться приблизительно на 4,1 процента и к 2017 г. составят порядка сорока двух с половиной миллиардов долларов.

Мы уже отмечали, что переживший недавно настоящий бум мировой рынок СХД постепенно пошел на спад. В 2005 г. рост потребления СХД составил на промышленном уровне шестьдесят пять процентов, а в 2006, а также 2007 г. – по пятьдесят девять процентов. В последующие годы рост потребления СХД еще больше снизился из-за негативного влияния мирового экономического кризиса.

Аналитики прогнозируют, что рост использования облачных СХД приведет к уменьшению потребления решений систем хранения данных на корпоративном уровне. Облачные провайдеры тоже осуществляют активные закупки для своих нужд систем хранения данных, к примеру, Facebook и Google строят из готовых компонентов по индивидуальному заказу собственные серверы, но эти серверы в отчете IDC не учитываются.

Также в компании IDC ожидают, что вскоре развивающиеся рынки в отношении потребления СХД существенно обгонят рынки развитые, поскольку им свойственны более высокие темпы экономического роста. К примеру, регион Восточной и Центральной Европы, Африки и Ближнего Востока в 2014 г. по расходам на системы хранения данных превзойдет Японию. К 2015 г. Азиатско-Тихоокеанский регион, исключая Японию, по объему потребления систем хранения данных превзойдет Западную Европу.

Оперативная продажа систем хранения данных

Выполняемая нашей компанией «Навигатор» продажа систем хранения данных дает возможность каждому желающему получить надежную и долговечную основу для хранения своих мультимедийных данных. Широкий выбор Raid массивов, сетевых хранилищ и прочих систем дает возможность в индивидуальном порядке подобрать для каждого заказчика тот комплекс, который подойдет для него наилучшим образом.

Широкие технические возможность, грамотность и опыт персонала компании гарантируют быстрое и комплексное выполнение поставленной задачи. При этом мы не ограничивается исключительно продажей систем хранения данных, поскольку выполняем также ее настройку, запуск и последующее сервисное и техническое обслуживание.

Системы хранения данных с прямым подключением (DAS) реализуют самый известный тип соединения. При использовании DAS сервер имеет персональную связь с СХД и почти всегда является единоличным пользователем устройства. При этом сервер получает блочный доступ к системе хранения данных, то есть обращается непосредственно к блокам данных.

Системы хранения данных такого типа достаточно простые и обычно недорогие. Недостатком прямого способа подключения является небольшое расстояние между сервером и устройством хранения. Типичным интерфейсом DAS является SAS.

Network Attached Storage (NAS)

Сетевые системы хранения данных (NAS), также известные как файловые серверы, предоставляют свои сетевые ресурсы клиентам по сети в виде совместно используемых файлов или точек монтирования каталогов. Клиенты используют протоколы сетевого доступа к файлам, такие как SMB (ранее известный как CIFS) или NFS. Файловый сервер, в свою очередь, использует протоколы блочного доступа к своему внутреннему хранилищу для обработки запросов файлов клиентами. Так как NAS работает по сети, хранилище может быть очень далеко от клиентов. Множество сетевых систем хранения данных предоставляет дополнительные функции, такие как снятие образов хранилища, дедупликация или компрессия данных и другие.

Storage Area Network (SAN)

Сеть хранения данных (SAN) предоставляет клиентам блочный доступ к данным по сети (например, Fibre Channel или Ethernet). Устройства в SAN не принадлежат одному серверу, а могут использоваться всеми клиентами сети хранения. Возможно разделение дискового пространства на логические тома, которые выделяются отдельным хост-серверам. Эти тома не зависят от компонентов SAN и их размещения. Клиенты обращаются к хранилищу данных с использованием блочного типа доступа, как и при DAS подключении, но, так как SAN использует сеть, устройства хранения данных могут располагаться далеко от клиентов.

В настоящее время SAN архитектура используют протокол SCSI (Small Computer System Interface) для передачи и получения данных. Fibre Channel (FC) SAN инкапсулируют протокол SCSI в Fibre Channel фреймы. Сети хранения данных, использующие iSCSI (Internet SCSI) используют в качестве транспорта SCSI TCP/IP пакеты. Fibre Channel over Ethernet (FCoE) инкапсулирует протокол Fibre Channel в пакеты Ethernet, используя относительно новую технологию DCB (Data Center Bridging), которая вносит набор улучшений в традиционный Ethernet и может в настоящее время быть развернута на 10GbE инфраструктуре. Благодаря тому, что каждая из этих технологий позволяет приложениям получать доступ к хранилищу данных используя один и тот же протокол SCSI, становится возможным использовать их все в одной компании или мигрировать с одной технологии на другую. Приложения, запущенные на сервере, не могут различить FC, FCoE, iSCSI и даже отличить DAS от SAN.

Ведется множество обсуждений по поводу выбора FC или iSCSI для построения сети хранения данных. Некоторые компании фокусируются на невысокой стоимости первоначального развертывания iSCSI SAN, другие выбирают высокую надежность и доступность Fibre Channel SAN. Хотя low-end решения iSCSI дешевле, чем Fibre Channel, с ростом производительности и надежности iSCSI SAN ценовое преимущество исчезает. При этом появляются некоторые реализации FC, которые проще в использовании, чем большинство iSCSI решений. Поэтому выбор той или иной технологии зависит от бизнес-требований, существующей инфраструктуры, экспертизы и бюджета.

Большинство крупных организаций, которые используют сети хранения данных, выбирают Fibre Channel. Эти компании обычно требуют проверенную технологию, имеют необходимость в высокой пропускной способности и обладают бюджетом для покупки самого надежного и производительного оборудования. Кроме того, они располагают персоналом для управления сетью хранения данных. Некоторые из таких компаний планируют продолжать инвестиции в Fibre Channel инфраструктуру, другие же инвестируют в решения iSCSI, особенно 10GbE, для своих виртуализированных серверов.

Небольшие компании чаще выбирают iSCSI из-за низкого ценового порога входа, при этом они получают возможность для дальнейшего масштабирования SAN. Недорогие решения обычно используют технологию 1GbE; решения от 10GbE стоят существенно дороже и как правило не рассматриваются в качестве SAN начального уровня.

Unified Storage

Универсальные системы хранения данных (Unified Storage) совмещают в себе технологии NAS и SAN в едином интегрированном решении. Эти универсальные хранилища позволяют использовать как блочный, так и файловый тип доступа к общим ресурсам, кроме того, управление такими устройствами проще благодаря ПО, обеспечивающему централизованное управление.

– это аппаратно-программное решение для надежного хранения данных и предоставление быстрого и надежного доступа к ним.

Реализация аппаратного обеспечения в системах хранения данных (СХД) схоже с реализацией архитектуры персонального компьютера. Зачем же тогда вообще применять СХД в архитектуре локальной сети организации, почему нельзя обеспечить, внедрить СХД на базе обычного ПК?

СХД как дополнительный узел локальной сети на базе персоналки или даже мощного сервера существуют уже давно.

Простейшее предоставление доступа к данным по протоколам FTP (протокол передачи фалов) и SMB (протокол удаленного доступа к сетевым ресурсам) поддержка которых есть во всех современных операционных системах.

Почему же тогда вообще появились СХД ?

Все просто , появление СХД связано с отставанием в развитии и скорости работы постоянно запоминающих устройств (жестких магнитных дисков) от центрального процессора и оперативной памяти. Самым узким местом в архитектуре ПК до сих пор считается жесткий диск, даже не смотря на мощное развитие SATA (последовательного интерфейса) до скорости обмена в 600 Мбайт/с (SATA3 ), физическое устройство накопителя представляет собой пластину, доступ к данным на которой нужно получить с помощью считывающих головок, что очень медленно. Последние недостатки на текущий момент решены накопителями SSD (не механическое запоминающее устройство), построенных на основе микросхем памяти. Кроме высокой цены на SSD у них есть, на мой взгляд, на текущий момент времени, недостаток в надежности. Инженеры СХД предложили вытеснить устройства хранения в отдельный элемент, а оперативную память таких устройств использовать для хранения часто меняющихся данных по специальным алгоритмам, для чего понадобилась программная составляющая продукта. В итоге системы хранения данных работают быстрее, чем накопители на жестких дисках в серверах, а вынос устройства хранения (дисковой подсистемы в отдельный элемент) повлияло на надежность и централизацию системы в целом.

Надежность обеспечил факт реализации в отдельном устройстве дисковой системы, которая работая с программной составляющей, выполняет одну функцию – это операции ввода/вывода и хранения данных.

Кроме простого принципа – одно устройство, одна функция обеспечивающее надежность. Все основные узлы: блоки питания, контроллеры системы хранения данных дублируют, что конечно еще больше увеличивает надежность системы, но сказывается на цене конечного продукта.

Вынос дисковой системы в отдельный узел позволяет централизовать устройства хранения . Как правило, без отдельного сетевого хранилища, домашние папки пользователей, почта, базы данных хранятся на отдельных узлах, как правило, серверах в сети, что очень неудобно, не надежно. Приходится делать резервные копии, дублировать данные на резервный сервер в сети, что кроме расходов на поддержку и аппаратуру, программное обеспечение, занимает часть пропускной способности сети.

Вот как это выглядит:

С отдельным СХД:

В зависимости от способа, технологии подключения СХД в информационную сеть. СХД подразделяют на: DAS, NAS, SAN

DAS (Direct Attached Storage) – способ подключения, который ничем не отличается от стандартного подключения жесткого диска, массивов дисков (RAID) к серверу или ПК. Как правило, для подключения используется SAS .

SAS – фактически, протокол рассчитанный на замену SCSI, использует последовательный интерфейс в отличии от SCSI, но команды используются те же самые, что и в SCSI. SAS имеет большую пропускную способность благодаря канальным соединениям в одном интерфейсе.

NAS (Network Attached Storage) – дисковая система подключается к общей LAN сети, используется транспортный протокол TCP, поверх модели работают протоколы SMB, NFS (удаленный доступ к файлам и принтерам).

SAN (Storage Area Network) – это выделенная сеть объединяющая устройства хранения с серверами. Работает с использованием протокола Fibre Channel либо iSCSI .

С Fibre Channel все понятно – оптика. А вот iSCSI – инкапсуляция пакетов в протокол IP, позволяет создавать сети хранения данных на основе Ethernet инфраструктуры, скорость передачи 1Gb и 10GB. Скорости работы iSCSI по мнению разработчиков должно хватать почти для всех бизнес приложений. Для подключения сервера к СХД по iSCSI требуются адаптеры с поддержкой iSCSI . До каждого устройства при использовании iSCSI прокладывают как минимум два маршрута, применяя VLAN , каждому устройству и LUN (определяет виртуальный раздел в массиве, используется при адресации) присваивается адрес (World Wide Name ).

Отличие NAS от SAN в том, что в сети SAN при операциях ввода/вывода данные считываются и записываются блоками. СХД не имеет никакого представления об устройстве файловых систем.

Из наиболее брендовых вендоров на рынке устройств хранения можно выделить: NetApp, IBM, HP, DELL, HITACHI, EMC.

Для нашего проекта требуется система хранения данных со следующими характеристиками:

  • Объем 1Тб для файлов, 1Тб для операционных систем серверов и баз данных, 300 – 500 Гб, для резервных серверов + запас. Итого минимум 3Тб дискового пространства
  • Поддержка протоколов SMB и NFS, для раздачи общих файлов для пользователей без участия серверов
  • Если хотим загрузку гипервизора с СХД , нужен как минимум протокол iSCSI
  • По идее еще нужно учитывать такой важный параметр как скорость ввода вывода (IO) который сможет обеспечить СХД. Прикинуть это параметр можно измерением IO на действующем железе, например программой IOMeter.

Нужно учитывать, что кластеризация от Microsoft работает только через Fibre Channel.

Вот список фирм и железок для выбора:

Asustor

Asustor AS 606T , AS 608T , 609 RD (кроме возможности установки до 8-ми дисков емкостью 4Tb заявлена поддержка VMware, Citrix и Hyper-V.

Аппаратная составляющая

CPU Intel Atom 2.13

RAM 1GB (3GB) DDR3

Hard 2.5, 3.5, SATA 3 or SSD

Lan Gigabit Ethernet – 2

ЖК-Экран, HDMI

Сеть

Сетевые протоколы

Файловая система

Для встроенных жестких дисков: EXT4, Для внешних жестких дисков: FAT32, NTFS, EXT3, EXT4, HFS+

Хранение

Поддержка нескольких томов с резервными дисками

Тип тома: Single disk, JBOD, RAID 0, RAID 1, RAID 5, RAID 6, RAID 10

Поддержка онлайн-миграции уровней RAID-массива

Максимальное число целей: 256

Максимальное число LUN: 256

Маскирование целей

Отображение LUN

Монтирование ISO-образов

Поддержка MPIO и MCS

Постоянное резервирование (SCSI-3)

Управление дисками

Поиск поврежденных блоков по графику

Сканирование S.M.A.R.T по графику

Поддерживаемые ОС

Windows XP, Vista, 7, 8, Server 2003, Server 2008, Server 2012

Mac OS X 10.6 Onwards

UNIX, Linux, and BSD

Резервное копирование

Поддержка режима Rsync (удаленной синхронизации)

Резервное копирование в «облако»

Резервное копирование по FTP

Резирвирование на внешние носители

Резервное копирование одним касанием

Системное администрирование

Тип журнала регистрации: системный журнал, журнал подключений, журнал доступа к файлам

Регистратор действий пользователя в реальном времени

Системный монитор реального времени

Сетевая корзина

Дисковая квота пользователей

Виртуальный диск (монтирование образов ISO, макс. 16)

Поддержка ИБП

Управление доступом

Максимальное число пользователей: 4096

Максимальное число групп: 512

Максимальное число папок общего доступа: 512

Максимальное число одновременных подключений: 512

Поддержка Windows Active Directory

Безопасность

Брандмауэр: предотвращение несанкционированного доступа

Сетевой фильтр: предотвращение сетевых атак

Уведомления об угрозах: E-mail, SMS

Защищенные подключения: HTTPS, FTP через SSL/TLS, SSH, SFTP, Rsync через SSH

Операционная система ADM с возможностью подключения дополнительных модулей через app central

Модели AS 604RD , AS 609RD в отличие от AS 606T , AS 608T , не имеют в своем составе ЖК-дисплея, предназначены для установки в стойку и имеют резервный блок питания, заявлена поддержка платформ виртуализации

Netgear

Ready Nas 2100 , Ready Nas 3100 , Ready Nas Pro 6

Аппаратная составляющая

CPU Intel SOC 1ГГц

Hard 2.5, 3.5, SATA 2 or SSD

Lan Gigabit Ethernet – 2

Сеть

Сетевые протоколы

CIFS/SMB, AFP, NFS, FTP, WebDAV, Rsync, SSH, SFTP, iSCSI, HTTP, HTTPS

Файловая система

Для встроенных жестких дисков: BTRFS, Для внешних жестких дисков: FAT32, NTFS, EXT3, EXT4, HFS+

Хранение

Поддержка онлайн-расширения емкости RAID-массива

Максимальное число целей: 256

Максимальное число LUN: 256

Маскирование целей

Отображение LUN

Управление дисками

Ёмкость диска, производительность, мониторинг загрузки

Сканирование для поиска плохих блоков на дисках

Поддержка HDD S.M.A.R.T.

Он-лайн коррекция данных на дисках

Поддержка режима Disk Scrubbing

Поддержка дефрагментации

Сообщения (от сервиса SMTP через e-mail, SNMP, syslog, локальный журнал)

Автоматическое выключение (HDD, вентиляторов, ИБП)

Восстановление работоспособности при возобновлении питания

Поддерживаемые ОС

Microsoft Windows Vista (32/64-bit), 7 (32/64-bit), 8 (32/64-bit), Microsoft Windows Server 2008 R2/2012, Apple OS X, Linux/Unix, Solaris, Apple iOS, Google Android)

Резервное копирование

Неограниченное число snapshot для непрерывной защиты.

Восстановление снимков в любой момент времени. Через графический интерфейс пользователя (консоль администратора), ReadyCLOUD, или проводник Windows

Возможность создания snapshot вручную или через планировщик

Синхронизация файлов через R-sync

Облачное управление Remote Replication(ReadyNAS to ReadyNAS). Не требует лицензий для устройств работающих под oперационной системой Radiator OS v6.

Резервирование в “горячем” режиме

Поддержка eSATA

Поддержка резервного копирования на внешние диски to e (USB/eSATA)

Поддержка технологии Remote Apple Time Machine backup and restore (через ReadyNAS Remote)

Поддержка сервиса ReadyNAS Vault Cloud (опционально)

Поддержка синхронизации через ReadyDROP (синхронизация файлов Mac/Windows на ReadyNAS)

Поддержка сервиса DropBox для файловой синхронизации (требуется учётная запись на сервисе DropBox)

Системное администрирование

ReadyCLOUD для обнаружения и управления устройствами

RAIDar –агент для обнаружения устройств в сетиt (Windows/Mac)

Сохранение и восстановление файла конфигураций

Журнал событий

Поддержка сообщений для сервера syslog

Поддержка сообщений для SMB

Графический интерфейс пользователя на русском и английском языках

Genie+ marketplace. Встроенный магазин приложений для повышения функциональности устройства

Поддержка Unicode- символов

Дисковый менеджер

Поддержка Thin provision Shares and LUNs

Мгновенное выделение ресурсов

Управление доступом

Максимальное число пользователей: 8192

Максимальное число групп: 8192

Максимальное количество папок предоставляемых для сетевого доступа: 1024

Максимальное количество подключение: 1024

Доступ к папкам и файлам на основе ACL

Расширенные разрешения для папок и подпапок на основе ACL для CIFS / SMB, AFP, FTP, Microsoft Active Directory (AD) Domain Controller Authentication

Собственные списки доступа

Списки доступа ReadyCLOUD на основе ACL

Операционная система

ReadyNAS OS 6 базируется на Linux 3.x

Ready Nas 3100 отличает Ready Nas 2100 объемом памяти 2Гб ECC

Ready Nas Pro 6 – хранилище с шестью слотами, процессор Intel Atom D510, память DDR2 1Гбайт

Qnap

TS-869U-RP , TS-869 PRO

Аппаратная составляющая

CPU Intel Atom 2.13ГГц

Hard 2.5, 3.5, SATA 3 or SSD

Lan Gigabit Ethernet – 2

Сеть

IPv4, IPv6, Supports 802.3ad and Six Other Modes for Load Balancing and/or Network Failover, Vlan

Сетевые протоколы

CIFS/SMB, AFP, NFS, FTP, WebDAV, Rsync, SSH, SFTP, iSCSI, HTTP, HTTPS

Файловая система

Для встроенных жестких дисков: EXT3, EXT4, Для внешних жестких дисков: FAT32, NTFS, EXT3, EXT4, HFS+

Хранение

Тип тома: RAID 0, RAID 1, RAID 5, RAID 6, RAID 10

Поддержка онлайн-расширения емкости RAID-массива

Максимальное число целей: 256

Максимальное число LUN: 256

Маскирование целей

Отображение LUN

Инициатор iSCSI (Виртуальный диск)

Stack Chaining Master

До 8 виртуальных дисков

Управление дисками

Увеличение емкости дискового пространства RAID-массива без потери данных

Сканирование на сбойные блоки

Функция восстановления RAID-массива

Поддержка Bitmap

Поддерживаемые ОС

Резервное копирование

Репликация в реальном времени (RTRR)

Работает как в качестве RTRR сервера, так и клиента

Поддерживает резервное копирование в реальном времени и по расписанию

Возможны фильтрация файлов, сжатие и шифрование

Кнопка копирования данных с/на внешнее устройство

Поддержка Apple Time Machine с управлением резервирования

Репликация ресурсов на уровне блоков (Rsync)

Работает как в качестве сервера, так и клиента

Защищенная репликация между серверами QNAP

Резервное копирование на внешние носители

Резервное копирование на облачные системы хранения данных

Приложение NetBak Replicator для Windows

Поддержка Apple Time Machine

Системное администрирование

Веб-интерфейс на технологии AJAX

Подключение по HTTP/ HTTPS

Мгновенные уведомления по E-mail и SMS

Управление системой охлаждения

DynDNS и специализированный сервис MyCloudNAS

Поддержка ИБП с SNMP-управлением (USB)

Поддержка сетевых ИБП

Монитор ресурсов

Сетевая корзина для CIFS/ SMB и AFP

Подробные журналы событий и подключений

Список активных пользователей

Клиент Syslog

Обновление микропрограммы

Сохранение и восстановление системных настроек

Восстановление заводских настроек

Управление доступом

До 4096 учетных записей пользователей

До 512 групп пользователей

До 512 сетевых ресурсов

Пакетное добавление пользователей

Импорт/экспорт пользователей

Задание параметров квотирования

Управление правами доступа на вложенные папки

Операционная система

TS – 869 Pro – модель без резервного блока питания, объем памяти 1Гб

Synology

RS 2212 , DS1813

Аппаратная составляющая

CPU Intel Core 2.13ГГц

Hard 2.5, 3.5, SATA 2 or SSD

Lan Gigabit Ethernet – 2

Сеть

IPv4, IPv6, Supports 802.3ad and Six Other Modes for Load Balancing and/or Network Failover

Сетевые протоколы

CIFS/SMB, AFP, NFS, FTP, WebDAV, SSH

Файловая система

Для встроенных жестких дисков: EXT3, EXT4, Для внешних жестких дисков: NTFS, EXT3, EXT4

Хранение

Тип тома: RAID 0, RAID 1, RAID 5, RAID 6, RAID 10

Максимальное число целей: 512

Максимальное число LUN: 256

Управление дисками

Изменение уровня RAID без остановки работы системы

Поддерживаемые ОС

Windows 2000 и последующие версии, Mac OS X 10.3 и последующие версии, Ubuntu 9.04 и последующие версии

Резервное копирование

Сетевое резервирование

Локальное резервирование

Синхронизация папок общего доступа

Резервирование рабочего стола

Системное администрирование

Уведомление о событиях системы по SMS, E-mail

Пользовательская квота

Мониторинг ресурсов

Управление доступом

До 2048 учетных записей пользователей

До 256 групп пользователей

До 256 сетевых ресурсов

Операционная система

DS1813 – 2 Гб оперативной памяти, 4 Gigabit, поддержка HASP 1C, поддержка дисков 4Тб

Thecus

N8800PRO v2 , N7700PRO v2 , N8900

Аппаратная составляющая

CPU Intel Core 2 1.66ГГц

Lan Gigabit Ethernet – 2

Возможность LAN 10Гб

Сеть

IPv4, IPv6, Supports 802.3ad and Six Other Modes for Load Balancing and/or Network Failover

Сетевые протоколы

CIFS/SMB, NFS, FTP

Файловая система

Для встроенных жестких дисков: EXT3, EXT4, Для внешних жестких дисков: EXT3, EXT4, XFS

Хранение

Тип тома: RAID 0, RAID 1, RAID 5, RAID 6, RAID 10, RAID 50, RAID 60

Поддержка онлайн-расширения емкости RAID-массива

Маскирование целей

Отображение LUN

Управление дисками

Контроль состояния дисков (S.M.A.R.T)

Сканирование на сбойные блоки

Возможность монтирования ISO-образов

Поддерживаемые ОС

Microsoft Windows 2000, XP, Vista (32/ 64 bit), Windows 7 (32/ 64 bit), Server 2003/ 2008

Резервное копирование

Acronis True Image

Утилита резервного копирования от Thecus

Чтение с оптического диска на Nas

Системное администрирование

Серверный веб-интерфейс администрирования

Управление доступом

Поддержка ADS

Операционная система

N7700PRO v2 – модель без резервного блока питания

N8900 – новая модель с поддержкой SATA 3 и SAS

Исходя из данных выше, в необходимости не менее 3-x Tb на текущий момент, а при обновлении ОС и программ эту цифру можно умножить на два, то нужно дисковое хранилище с емкостью не менее 6Tb , и с возможностью роста. Поэтому с закладкой на будущее и организации массива RAID 5 итоговой цифрой является необходимость в 12 Tb . При поддержке дисковой системы жестких дисков емкостью 4Tb, нужна система с не менее шестью отсеками для дисков.

Выбор был существенно уменьшен следующими моделями: AS 609RD , Ready NAS 3200 , TS-869U-RP , RS-1212RP+ , N8900 . Все модели имеют в своем составе дополнительный блок питания . И заявленную производителем поддержку известных платформ виртуализации . Наиболее интересной показалась модель от NetGear - Ready NAS 3200 , так как только эта модель кроме SMART поддерживала хоть какие та дополнительные технологии для работы с дисками кроме SMART и память с ECC, но цена вылетала за 100 000 руб, к тому же были сомнения по поводу возможности работы в ней дисков 4Tb и SATA3. Цена за RS-1212RP+ , тоже вылетала выше 100 тысяч. AS 609RD – игрок на рынке систем хранения очень новый, поэтому не известно как поведет себя эта СХД .

Из чего оставалось только две системы на выбор : TS-869 U- RP , N8900 .

TS-869U-RP – на текущий момент стоит порядка 88 000 руб.

N8900 – цена 95 400 руб, имеет массу преимуществ в сравнении с TS-869U-RP – это поддержка как дисков SATA так и SAS , возможность дополнительной установки адаптера 10 Gb , более мощный двуядерный процессор, поддержка дисков SATA3 4Tb. Кроме того существует резервирование прошивки на резервную микросхему, что дает более выгодную надежность по сравнению с другими системами.

  • Назад

Shkera

С повседневным усложнением сетевых компьютерных систем и глобальных корпоративных решений мир начал требовать технологий, которые бы дали толчок к возрождению корпоративных систем хранения информации (сторедж-систем). И вот, одна единая технология приносит в мировую сокровищницу достижений в области сторедж невиданное ранее быстродействие, колоссальные возможности масштабирования и исключительные преимущества общей стоимости владения. Обстоятельства, которые сформировались с появлением стандарта FC-AL (Fibre Channel - Arbitrated Loop) и SAN (Storage Area Network), которая развивается на его основе, обещают революцию в дата-ориентированных технологиях компьютинга.

«The most significant development in storage we"ve seen in 15 years»

Data Communications International, March 21, 1998

Формальное определение SAN в трактовке Storage Network Industry Association (SNIA):

«Сеть, главной задачей которой является передача данных между компьютерными системами и устройствами хранения данных, а также между самими сторедж-системами. SAN состоит из коммуникационной инфраструктуры, которая обеспечивает физическую связь, а также отвечает за уровень управления (management layer), который объединяет связи, сторедж и компьютерные системы, осуществляя передачу данных безопасно и надежно».

SNIA Technical Dictionary, copyright Storage Network Industry Association, 2000

Варианты организации доступа к сторедж-системам

Различают три основных варианта организации доступа к системам хранения:

  • SAS (Server Attached Storage), сторедж, присоединенный к серверу;
  • NAS (Network Attached Storage), сторедж, подсоединенный к сети;
  • SAN (Storage Area Network), сеть хранения данных.

Рассмотрим топологии соответствующих сторедж-систем и их особенности.

SAS

Сторедж-система, присоединенная к серверу. Знакомый всем, традиционный способ подключения системы хранения данных к высокоскоростному интерфейсу в сервере, как правило, к параллельному SCSI интерфейсу.

Рисунок 1. Server Attached Storage

Использование отдельного корпуса для сторедж-системы в рамках топологии SAS не является обязательным.

Основное преимущество сторедж, подсоединенного к серверу, в сравнении с другими вариантами - низкая цена и высокое быстродействие из расчета один сторедж для одного сервера. Такая топология является самой оптимальной в случае использования одного сервера, через который организуется доступ к массиву данных. Но у нее остается ряд проблем, которые побудили проектировщиков искать другие варианты организации доступа к системам хранения данных.

К особенностям SAS можно отнести:

  • Доступ к данных зависит от ОС и файловой системы (в общем случае);
  • Сложность организации систем с высокой готовностью;
  • Низкая стоимость;
  • Высокое быстродействие в рамках одной ноды;
  • Уменьшение скорости отклика при загрузке сервера, который обслуживает сторедж.

NAS

Сторедж-система, подсоединенная к сети. Этот вариант организации доступа появился сравнительно недавно. Основным его преимуществом является удобство интеграции дополнительной системы хранения данных в существующие сети, но сам по себе он не привносит сколь-нибудь радикальных улучшений в архитектуру сторедж. Фактически NAS есть чистый файл-сервер, и сегодня можно встретить немало новых реализаций сторедж типа NAS на основе технологии тонкого сервера (Thin Server).


Рисунок 2. Network Attached Storage.

Особенности NAS:

  • Выделенный файл-сервер;
  • Доступ к данным не зависит от ОС и платформы;
  • Удобство администрирования;
  • Максимальная простота установки;
  • Низкая масштабируемость;
  • Конфликт с трафиком LAN/WAN.

Сторедж, построенный по технологии NAS, является идеальным вариантом для дешевых серверов с минимальным набором функций.

SAN

Сети хранения данных начали интенсивно развиваться и внедряться лишь с 1999 года. Основой SAN является отдельная от LAN/WAN сеть, которая служит для организации доступа к данным серверов и рабочих станций, занимающихся их прямой обработкой. Такая сеть создается на основе стандарта Fibre Channel, что дает сторедж-системам преимущества технологий LAN/WAN и возможности по организации стандартных платформ для систем с высокой готовностью и высокой интенсивностью запросов. Почти единственным недостатком SAN на сегодня остается относительно высокая цена компонент, но при этом общая стоимость владения для корпоративных систем, построенных с использованием технологии сетей хранения данных, является довольно низкой.


Рисунок 3. Storage Area Network.

К основным преимуществам SAN можно отнести практически все ее особенности:

  • Независимость топологии SAN от сторедж-систем и серверов;
  • Удобное централизованное управление;
  • Отсутствие конфликта с трафиком LAN/WAN;
  • Удобное резервирование данных без загрузки локальной сети и серверов;
  • Высокое быстродействие;
  • Высокая масштабируемость;
  • Высокая гибкость;
  • Высокая готовность и отказоустойчивость.

Следует также заметить, что технология эта еще довольно молодая и в ближайшее время она должна пережить немало усовершенствований в области стандартизации управления и способов взаимодействия SAN подсетей. Но можно надеяться, что это угрожает пионерам лишь дополнительными перспективами первенства.

FC как основа построения SAN

Подобно LAN, SAN может создаваться с использованием различных топологий и носителей. При построении SAN может использоваться как параллельный SCSI интерфейс, так и Fibre Channel или, скажем, SCI (Scalable Coherent Interface), но своей все возрастающей популярностью SAN обязана именно Fibre Channel. В проектировании этого интерфейса принимали участие специалисты со значительным опытом в разработке как канальных, так и сетевых интерфейсов, и им удалось объединить все важные положительные черты обеих технологий для того, чтобы получить что-то в самом деле революционно новое. Что именно?

Основные ключевые особенности канальных:

  • Низкие задержки
  • Высокие скорости
  • Высокая надежность
  • Топология точка-точка
  • Небольшие расстояния между нодами
  • Зависимость от платформы
и сетевых интерфейсов:
  • Многоточечные топологии
  • Большие расстояния
  • Высокая масштабируемость
  • Низкие скорости
  • Большие задержки
объединились в Fibre Channel:
  • Высокие скорости
  • Независимость от протокола (0-3 уровни)
  • Большие расстояния
  • Низкие задержки
  • Высокая надежность
  • Высокая масштабируемость
  • Многоточечные топологии

Традиционно сторедж интерфейсы (то, что находится между хостом и устройствами хранения информации) были преградой на пути к росту быстродействия и увеличению объема систем хранения данных. В то же время прикладные задачи требуют значительного прироста аппаратных мощностей, которые, в свою очередь, тянут за собой потребность в увеличении пропускной способности интерфейсов для связи со сторедж-системами. Именно проблемы построения гибкого высокоскоростного доступа к данным помогает решить Fibre Channel.

Стандарт Fibre Channel был окончательно определен за последние несколько лет (с 1997-го по 1999-й), на протяжении которых была проведена колоссальная работа по согласованию взаимодействия производителей различных компонент, и было сделано все необходимое, чтобы Fibre Channel превратился из чисто концептуальной технологии в реальную, которая получила поддержку в виде инсталляций в лабораториях и вычислительных центрах. В году 1997 были спроектированы первые коммерческие образцы краеугольных компонент для построения SAN на базе FC, таких как адаптеры, хабы, свичи и мосты. Таким образом, уже начиная с 1998-го года FC используется в коммерческих целях в деловой сфере, на производстве и в масштабных проектах реализации систем, критичных к отказам.

Fibre Channel - это открытый промышленный стандарт высокоскоростного последовательного интерфейса. Он обеспечивает подключение серверов и сторедж-систем на расстоянии до 10 км (при использовании стандартного оснащения) на скорости 100 MB/s (на выставке Cebit"2000 были представлены образцы продукции, которые используют новый стандарт Fibre Channel со скоростями 200 MB/s на одно кольцо, а в лабораторных условиях уже эксплуатируются реализации нового стандарта со скоростями 400 MB/s, что составляет 800 MB/s при использовании двойного кольца). (На момент публикации статьи ряд производителей уже начал отгружать сетевые карточки и свичи на FC 200 MB/s.) Fibre Channel одновременно поддерживает целый ряд стандартных протоколов (среди которых TCP/IP и SCSI-3) при использовании одного физического носителя, который потенциально упрощает построение сетевой инфраструктуры, к тому же это предоставляет возможности для уменьшения стоимости монтажа и обслуживания. Тем не менее использование отдельных подсетей для LAN/WAN и SAN имеет ряд преимуществ и является рекомендованным по умолчанию.

Одним из важнейших преимуществ Fibre Channel наряду со скоростными параметрами (которые, кстати, не всегда являются главными для пользователей SAN и могут быть реализованы с помощью других технологий) является возможность работы на больших расстояниях и гибкость топологии, которая пришла в новый стандарт из сетевых технологий. Таким образом, концепция построения топологии сети хранения данных базируется на тех же принципах, что и традиционные сети, как правило, на основе концентраторов и коммутаторов, которые помогают предотвратить падение скорости при возрастании количества нод и создают возможности удобной организации систем без единой точки отказов.

Для лучшего понимания преимуществ и особенностей этого интерфейса приведем сравнительную характеристику FC и Parallel SCSI в виде таблицы.

Таблица 1. Сравнение технологий Fibre Channel и параллельного SCSI

В стандарте Fibre Channel предполагается использование разнообразных топологий, таких как точка-точка (Point-to-Point), кольцо или FC-AL концентратор (Loop или Hub FC-AL), магистральный коммутатор (Fabric/Switch).

Топология point-to-point используется для подсоединения одиночной сторедж-системы к серверу.

Loop или Hub FC-AL - для подсоединения множественных сторедж устройств к нескольким хостам. При организации двойного кольца увеличивается быстродействие и отказоустойчивость системы.

Коммутаторы используются для обеспечения максимального быстродействия и отказоустойчивости для сложных, больших и разветвленных систем.

Благодаря сетевой гибкости в SAN заложена чрезвычайно важная особенность - удобная возможность построения отказоустойчивых систем.

Предлагая альтернативные решения для систем хранения данных и возможности по объединению нескольких сторедж для резервирования аппаратных средств, SAN помогает обеспечивать защиту аппаратно-программных комплексов от аппаратных сбоев. Для демонстрации приведем пример создания двухнодовой системы без точек отказов.


Рисунок 4. No Single Point of Failure.

Построение трех- и более нодовых систем осуществляется простым добавлением в FC сеть дополнительных серверов и подключением их к обоим концентраторам/ коммутаторам).

При использовании FC построение устойчивых к сбоям (disaster tolerant) систем становится прозрачным. Сетевые каналы и для сторедж, и для локальной сети можно проложить на основе оптоволокна (до 10 км и больше с использованием усилителей сигнала) как физического носителя для FC, при этом используется стандартная аппаратура, которая дает возможность значительно уменьшить стоимость подобных систем.

Благодаря возможности доступа ко всем компонентам SAN из любой ее точки мы получаем чрезвычайно гибко управляемую сеть данных. При этом следует заметить, что в SAN обеспечивается прозрачность (возможность видеть) всех компонентов вплоть до дисков в сторедж-системах. Эта особенность подтолкнула производителей компонентов к использованию своего значительного опыта в построении систем управления для LAN/WAN с тем, чтобы заложить широкие возможности по мониторингу и управлению во все компоненты SAN. Эти возможности включают в себя мониторинг и управление отдельных нод, сторедж компонентов, корпусов, сетевых устройств и сетевых подструктур.

В системе управления и мониторинга SAN используются такие открытые стандарты, как:

  • SCSI command set
  • SCSI Enclosure Services (SES)
  • SCSI Self Monitoring Analysis and Reporting Technology (S.M.A.R.T.)
  • SAF-TE (SCSI Accessed Fault-Tolerant Enclosures)
  • Simple Network Management Protocol (SNMP)
  • Web-Based Enterprise Management (WBEM)

Системы, построенные с использованием технологий SAN, не только обеспечивают администратору возможность следить за развитием и состоянием сторедж ресурсов, но и открывают возможности по мониторингу и контролю трафика. Благодаря таким ресурсам программные средства управления SAN реализуют наиболее эффективные схемы планирования объема сторедж и балансирование нагрузки на компоненты системы.

Сети хранения данных прекрасно интегрируются в существующие информационные инфраструктуры. Их внедрение не требует каких-либо изменений в уже существующих сетях LAN и WAN, а лишь расширяет возможности существующих систем, избавляя их от задач, ориентированных на передачу больших объемов данных. Причем при интеграции и администрировании SAN очень важным является то, что ключевые элементы сети поддерживают горячую замену и установку, с возможностями динамического конфигурирования. Так что добавить тот или другой компонент или осуществить его замену администратор может, не выключая систему. И весь этот процесс интеграции может быть визуально отображен в графической системе управления SAN.

Рассмотрев вышеперечисленные преимущества, можно выделить ряд ключевых моментов, которые непосредственно влияют на одно из основных преимуществ Storage Area Network - общую стоимость владения (Total Cost Ownership).

Невероятные возможности масштабирования позволяют предприятию, которое использует SAN, вкладывать деньги в серверы и сторедж по мере необходимости. А также сохранить свои вложения в уже инсталлированную технику при смене технологических поколений. Каждый новый сервер будет иметь возможность высокоскоростного доступа к сторедж и каждый дополнительный гигабайт сторедж будет доступен всем серверам подсети по команде администратора.

Прекрасные возможности по построению отказоустойчивых систем могут приносить прямую коммерческую выгоду от минимизации простоев и спасать систему в случае возникновения стихийного бедствия или каких-нибудь других катаклизмов.

Управляемость компонентов и прозрачность системы предоставляют возможность осуществлять централизованное администрирование всех сторедж ресурсов, а это, в свою очередь, значительно уменьшает затраты на их поддержку, стоимость которой, как правило, составляет более 50% от стоимости оснащения.

Влияние SAN на прикладные задачи

Для того чтобы нашим читателям стало понятней, насколько практически полезны технологии, которые рассматриваются в этой статье, приведем несколько примеров прикладных задач, которые без использования сетей хранения данных решались бы неэффективно, требовали бы колоссальных финансовых вложений или же вообще не решались бы стандартными методами.

Резервирование и восстановление данных (Data Backup and Recovery)

Используя традиционный SCSI интерфейс, пользователь при построении систем резервирования и восстановления данных сталкивается с рядом сложных проблем, которые можно очень просто решить, используя технологии SAN и FC.

Таким образом, использование сетей хранения данных выводит решение задачи резервирования и восстановления на новый уровень и предоставляет возможность осуществлять бэкап в несколько раз быстрее, чем раньше, без загрузки локальной сети и серверов работой по резервированию данных.

Кластеризация серверов (Server Clustering)

Одной из типичных задач, для которых эффективно используется SAN, является кластеризация серверов. Поскольку один из ключевых моментов в организации высокоскоростных кластерных систем, которые работают с данными - это доступ к сторедж, то с появлением SAN построение многонодовых кластеров на аппаратном уровне решается простым добавлением сервера с подключением к SAN (это можно сделать, даже не выключая системы, поскольку свичи FC поддерживают hot-plug). При использовании параллельного SCSI интерфейса, возможности по подсоединению и масштабируемость которого значительно хуже, чем у FC, кластеры, ориентированные на обработку данных, было бы тяжело сделать с количеством нод больше двух. Коммутаторы параллельного SCSI - весьма сложные и дорогие устройства, а для FC это стандартный компонент. Для создания кластера, который не будет иметь ни единой точки отказов, достаточно интегрировать в систему зеркальную SAN (технология DUAL Path).

В рамках кластеризации одна из технологий RAIS (Redundant Array of Inexpensive Servers) кажется особенно привлекательной для построения мощных масштабируемых систем интернет-коммерции и других видов задач с повышенными требованиями к мощности. По словам Alistair A. Croll, сооснователя Networkshop Inc, использование RAIS оказывается достаточно эффективным:«Например, за $12000-15000 вы можете купить около шести недорогих одно-двухпроцессорных (Pentium III) Linux/Apache серверов. Мощность, масштабируемость и отказоустойчивость такой системы будет значительно выше, чем, например, у одного четырехпроцессорного сервера на базе процессоров Xeon, а стоимость одинаковая».

Одновременный доступ к видео и распределение данных (Concurrent video streaming, data sharing)

Вообразите себе задачу, когда вам нужно на нескольких (скажем, >5) станциях редактировать видео или просто работать над данными огромного объема. Передача файла размером 100GB по локальной сети займет у вас несколько минут, а общая работа над ним будет очень сложной задачей. При использовании SAN каждая рабочая станция и сервер сети получают доступ к файлу на скорости, эквивалентной локальному высокоскоростному диску. Если вам нужны еще одна станция/сервер для обработки данных, вы сможете ее прибавить к SAN, не выключая сети, простым подсоединением станции к SAN коммутатору и предоставлением ей прав доступа к сторедж. Если же вас перестанет удовлетворять быстродействие подсистемы данных, вы сможете просто прибавить еще один сторедж и с использованием технологии распределения данных (например, RAID 0) получить вдвое большее быстродействие.

Основные компоненты SAN

Среда

Для соединения компонентов в рамках стандарта Fibre Channel используют медные и оптические кабели. Оба типа кабелей могут использоваться одновременно при построении SAN. Конверсия интерфейсов осуществляется с помощью GBIC (Gigabit Interface Converter) и MIA (Media Interface Adapter). Оба типа кабеля сегодня обеспечивают одинаковую скорость передачи данных. Медный кабель используется для коротких расстояний (до 30 метров), оптический - как для коротких, так и для расстояний до 10 км и больше. Используют многомодовый и одномодовый оптические кабели. Многомодовый (Multimode) кабель используется для коротких расстояний (до 2 км). Внутренний диаметр оптоволокна мультимодового кабеля составляет 62,5 или 50 микрон. Для обеспечения скорости передачи 100 МБ/с (200 МБ/с в дуплексе) при использовании многомодового оптоволокна длина кабеля не должна превышать 200 метров. Одномодовый кабель используется для больших расстояний. Длина такого кабеля ограничена мощностью лазера, который используется в передатчике сигнала. Внутренний диаметр оптоволокна одномодового кабеля составляет 7 или 9 микрон, он обеспечивает прохождение одиночного луча.

Коннекторы, адаптеры

Для подсоединения медных кабелей используются коннекторы типа DB-9 или HSSD. HSSD считается более надежным, но DB-9 используется так же часто, потому что он более простой и дешевый. Стандартным (наиболее распространенным) коннектором для оптических кабелей является SC коннектор, он обеспечивает качественное, четкое соединение. Для обычного подключения используются многомодовые SC коннекторы, а для отдаленного - одномодовые. В многопортовых адаптерах используются микроконнекторы.

Наиболее распространены адаптеры для FC под шину PCI 64 bit. Также много FC адаптеров вырабатывается под шину S-BUS, для специализированного использования выпускаются адаптеры под MCA, EISA, GIO, HIO, PMC, Compact PCI. Самые популярные - однопортовые, встречаются двух- и четырехпортовые карточки. На PCI адаптерах, как правило, используют DB-9, HSSD, SC коннекторы. Также часто встречаются GBIC-based адаптеры, которые поставляются как с модулями GBIC, так и без них. Fibre Channel адаптеры отличаются классами, которые они поддерживают, и разнообразными особенностями. Для понимания отличий приведем сравнительную таблицу адаптеров производства фирмы QLogic.

Fibre Channel Host Bus Adapter Family Chart
SANblade 64 Bit FCAL Publ. Pvt Loop FL Port Class 3 F Port Class 2 Point to Point IP/ SCSI Full Duplex FC Tape PCI 1.0 Hot Plug Spec Solaris Dynamic Reconfig VIВ 2Gb
2100 Series 33 & 66MHz PCI X X X
2200 Series 33 & 66MHz PCI X X X X X X X X X
33MHz PCI X X X X X X X X X X
25 MHZ Sbus X X X X X X X X X X
2300 Series 66 MHZ PCI/ 133MHZ PCI-X X X X X X X X X X X X

Концентраторы

Fibre Channel HUBs (концентраторы) используются для подключения нод к FC кольцу (FC Loop) и имеют структуру, похожую на Token Ring концентраторы. Поскольку разрыв кольца может привести к прекращению функционирования сети, в современных FC концентраторах используются порты обхода кольца (PBC-port bypass circuit), которые разрешают автоматически открывать/закрывать кольцо (подключать/отключать системы, присоединенные к концентратору). Обычно FC HUBs поддерживают до 10 подключений и могут стекироваться до 127 портов на кольцо. Все устройства, подключенные к HUB, получают общую полосу пропускания, которую они могут разделять между собой.

Коммутаторы

Fibre Channel Switches (коммутаторы) имеют те же функции, что и привычные читателю LAN коммутаторы. Они обеспечивают полноскоростное неблокированное подключение между нодами. Любая нода, подключенная к FC коммутатору, получает полную (с возможностями масштабирования) полосу пропускания. При увеличении количества портов коммутированной сети ее пропускная способность увеличивается. Коммутаторы могут использоваться вместе с концентраторами (которые используют для участков, не требующих выделенной полосы пропуска для каждой ноды) для достижения оптимального соотношения цена/производительность. Благодаря каскадированию свичи потенциально могут использоваться для создания FC сетей с количеством адресов 2 24 (свыше 16 миллионов).

Мосты

FC Bridges (мосты или мультиплексоры) используются для подключения устройств с параллельным SCSI к сети на базе FC. Они обеспечивают трансляцию SCSI пакетов между Fibre Channel и Parallel SCSI устройствами, примерами которых могут служить Solid State Disk (SSD) или библиотеки на магнитных лентах. Следует заметить, что в последнее время практически все устройства, которые могут быть утилизированы в рамках SAN, производители начинают выпускать с вмонтированным FC интерфейсом для прямого их подключения к сетям хранения данных.

Серверы и Сторедж

Несмотря на то что серверы и сторедж - далеко не последние по важности компоненты SAN, мы на их описании останавливаться не будем, поскольку уверены, что с ними хорошо знакомы все наши читатели.

В конце хочется добавить, что эта статья - лишь первый шаг к сетям хранения данных. Для полного понимания темы читателю следует уделить немало внимания особенностям реализации компонент производителями SAN и программным средствам управления, поскольку без них Storage Area Network - это всего лишь набор элементов для коммутации сторедж-систем, которые не принесут вам полноты преимуществ от реализации сети хранения данных.

Заключение

Сегодня Storage Area Network является довольно новой технологией, которая в скором времени может стать массовой в кругу корпоративных заказчиков. В Европе и США предприятия, которые имеют достаточно большой парк инсталлированных сторедж-систем, уже начинают переходить на сети хранения данных для организации сторедж с наилучшим показателем общей стоимости владения.

По прогнозам аналитиков, в 2005 году значительное количество серверов среднего и верхнего уровня будут поставляться с предварительно установленным интерфейсом Fibre Channel (такую тенденцию можно заметить уже сегодня), и лишь для внутреннего подключения дисков в серверах будет использоваться параллельный SCSI интерфейс. Уже сегодня при построении сторедж-систем и приобретении серверов среднего и верхнего уровня следует обратить внимание на эту перспективную технологию, тем более, что уже сегодня она дает возможность реализовать ряд задач куда дешевле, чем с помощью специализированных решений. Кроме того, вкладывая в технологию SAN сегодня, вы не потеряете свои вложения завтра, поскольку особенности Fibre Channel создают прекрасные возможности для использования в будущем вложенных сегодня инвестиций.

P.S.

Предыдущая версия статьи была написана в июне 2000 года, но в связи с отсутствием массового интереса к технологии сетей хранения данных публикация была отложена на будущее. Это будущее настало сегодня, и я надеюсь, что данная статья побудит читателя осознать необходимость перехода на технологию сетей хранения данных, как передовую технологию построения сторедж-систем и организации доступа к данным.

просмотров