Truenas core установка и настройка



Настройка совместного доступа к общим папкам в TureNAS + SAMBA

В прошлой статье мы установили TrueNAS на наш домашний ПК, который будет выполнять роль сетевого хранилища ( NAS ) и оберегать наши семейные фото и видео архивы от различных неприятностей, а так же обеспечивать совмесный доступ к ним с различных устройств.

Теперь давайте организуем, то ради чего это всё задумывалось — совместный доступ к папкам нашего сетевого хранилища. Совместный доступ позволит пользователю любого ПК в нашей домашней сети видеть общие папки, раположенные на дисках сетевого хранилища, и использовать их по своему усмотрению.

RaidZ массив в TrueNAS

Что такое RAID?

Если по-простому, то RAID это несколько жестких (чаще физических) дисков объединённых в один виртуальный диск для повышения уровня сохранности наших данных.

Виды дисковых массивов

Для повышения надёжности хранения данных на нашем сетевом хранилище необходимо объединить несколько физических HDD дисков в RAID-массив. RAID-массив дисков для конечного пользователя будет единым диском, но в тоже время информация хранимая на таком массиве из дисков будет дублироваться на нескольких дисках сразу. В случае отказа одного из дисков не произойдёт необратимой потери данных, а данные можно будет восстановить с другого работоспособного диска в RAID-массиве.

При использовании файловой системы ZFS , а в TrueNAS используется именно ZFS, существуют специальные RIAD-массивы, называемые RAIDZ . Существует несколько конфигураций RAIDZ:

  • Mirror — он же "зеркало" (аналог RAID 1). Для организации массива понадобится не менее 2 жёстких дисков. Сохранность данных в таком массиве обеспечивается путём дублирования (зеркалирования) данных на каждом из дисков;
  • RAIDZ — аналог RAID 5. Для организации такого массива понадобится не менее 3 жёстких дисков. Сохранность данных обеспечивается путём записи контрольных сумм на 1 диск в массиве;
  • RAIDZ2 — аналог RAID 6. Для организации массива необходимо не менее 4 жестких дисков. Сохранность данных обеспечивается путём записи контрольных сумм на 2 диска в массиве;

Сохранность данных в RAID и RAIDZ массивах обеспечивается либо дублированием данных, либо хранением специальных контрольных сумм. При этом доступная пользователю ёмкость дискового массива не равна суммарному объёму всех используемых им дисков. В таблице ниже я приведу конфигурации дисковых массивов с указанием минисального количества дисков, необходимых для создания массива: максимального количества дисков, которые могут выйти из строя и при этом не потеряв данные, записанные в массив, а так же эффективную, т.е. доступную пользователю, ёмкость хранилища с учётом того, что для своего NAS мы взяли диски объёмом 1ТБ каждый.

Источник

How To: Install TrueNAS CORE 12

TrueNAS CORE is the evolution of the code base of FreeNAS. We had a great live stream with Brian Beeler and Kris Moore from iXsystems that demos the new capabilities TrueNAS CORE has to offer. The video embedded below is a great starting point to get up to speed on what’s new in TrueNAS CORE. But, that’s not enough. By popular request, we wanted to show how to install TrueNAS CORE. In this how to guide, we will be using an HPE ProLiant Micro Server Gen 10 Plus paired with some Seagate IronWolf HDDs and an SSD we had lying about to create an impressive NAS in a tiny footprint.

TrueNAS CORE is the evolution of the code base of FreeNAS. We had a great live stream with Brian Beeler and Kris Moore from iXsystems that demos the new capabilities TrueNAS CORE has to offer. The video embedded below is a great starting point to get up to speed on what’s new in TrueNAS CORE. However, that’s not enough. By popular request, we wanted to show how to install TrueNAS CORE. In this will how to guide, we will be using an HPE ProLiant Micro Server Gen 10 Plus paired with some Seagate IronWolf HDDs and an SSD we had lying about to create an impressive NAS in a tiny footprint.

Read More – TrueNAS CORE 12 Review on HPE MicroServer

Download TrueNAS CORE

Now, here is how you can get started with TrueNAS CORE. Head over to https://www.truenas.com/ And you will see “Download TrueNAS CORE”

install truenas core

install truenas core index

As this is a nightly build and PRE-ALPHA – I will pass along the warning that was given to us – “This is not for production and to proceed at your own risk.” If your mouse gets pregnant don’t blame us. Select x64

install truenas core index 2

You will see 4 files – you will want to select the file with the .iso extension that is NOT the debug version.

HPE iLO 5 on the MicroServer

install truenas core HPE iLO 5

The HPE ProLiant MicroServer Gen10 Plus has built in iLO 5 that allows us to connect Virtual Media from local or remote storage. This is accomplished by logging into the iLO 5 interface – selecting Remote Console & Media and Virtual Media – loading either a local image (ISO from your local machine) or use an image URL – in this case the actual ISO path from the iXsystems server) – **If you are running the installer on your own hardware – Simply download the ISO and use Rufus – https://rufus.ie/– with a USB stick to boot from.**

install truenas core rufus

Once you have an image loaded in virtual media – move back over to Launch and open a console to the machine.

Selecting HTML5 console will allow you to open a console that will give you a live screen to work with. Select F-11 to open a boot menu and boot the iLO virtual CD-ROM.

Install TrueNAS CORE

This will bring up the TrueNAS installer, where the shark fin remains.

Install TrueNAS CORE

Either select option 1 or just leave the autoboot to select it for you.

Install TrueNAS CORE Option 1

TrueNAS 12 will install by selecting option 1 (Install).

Selecting the install destination – In this case we installed a 128GB Lexar microSD card for our boot media on the internal USB 2.0 port on the board. Select the volume, press space and select OK.

You will be given a warning that all data will be erased (Protecting us from ourselves). Select YES.

This will now prompt you for the root password on the box. It is strongly advisable to use a password but not required. Simply click cancel if you don’t want to have a root password.

On the MicroServer, both BIOS and UEFI are supported – If the hardware you are using is newer try UEFI first as BIOS may require you to disable secure boot, enable legacy boot or any number of other steps that are not required in this guide.

The install didn’t take too long to accomplish and once completed you will get this completion notification.

This is the default console you will be greeted to upon first boot in the console. Now you can move over to a web browser and complete the setup. The URL is listed under web user interface.

The dashboard is reminiscent of FreeNAS 11.3 – with key details laid out on the dashboard.

Читайте также:  Установка счетчиков с долгом

To create a storage pool – select Storage – Pools – ADD.

Select Create New Pool – Create Pool

Once you Name the Pool – you can select the drives that you would like to have in the pool. If the setup is simple you can even select Suggest Layout and that will take like sized disks and types and use them in the pool. We selected the 3 Seagate IronWolf hard drives for DATA and assigned the SSD to a VDEV for CACHE by selecting ADD VDEV – CACHE.

When you select CACHE – you will be asked what SSD you would like to assign.

This will now show you the VDev Cache and the Data VDevs – Check your raw data capacity and click CREATE.

I love how TrueNAS protects me from myself – this operation will erase ALL data on the disks. Click Confirm and create the pool.

Now the pool is created you will see the status.

To get files in and out – you need to create a share – TrueNAS supports AFP, iSCSI, NFS, WebDAV, SMB – just select Sharing and the type of share that you want to create – in this case SMB – and click ADD in the upper right corner.

You will be prompted to select the mount location – in this case on the pool that we just created and click submit.

install truenas core enable

TrueNAS runs lean – so it doesn’t run all services until it needs them – you will be prompted to enable the SMB service automatically – Click enable service and your share is now live.

Before you can start filling up your new share with *Cough* Linux ISOs – you need to create a user to access the shares. This can be done easily by selecting Accounts – Users – Select ADD in the top right.

install truenas core user add

Populate the user details – At the very least user name and password – Set a home directory and permissions and click submit.

You can now access the share as that user on an SMB share.

install truenas core smb

Now that we have shares up and running – we can explore plugins (Not in scope of this guide) but I assure you that setting up a Plex server, or a Minecraft server is as easy as a few clicks. First time you will be asked where to store plugins and Jails – just select a pool and click CHOOSE.

install truenas core plex

I am looking forward to upgrading my FreeNAS servers to TrueNAS CORE soon. This will let me play around with some of the new features – like dedicated metadata VDev.

Concluding Thoughts

For now, hopefully this guide is useful in your journey to set up and configure TrueNAS CORE. In this case we used an HPE MicroServer Gen10 Plus that had been lazing about the lab, along with Seagate IronWolf 14TB HDDs and an IronWolf NAS SSD. In total the process of setup was simple, and in this tiny box we have a highly capable box that could quite honestly go into production today at a small business, remote office or homelab scenario. Okay, so alpha nightly builds might not be the best idea for production; point being, the evolution from FreeNAS to TrueNAS is exciting and getting up and running with TrueNAS CORE is painless. When the GA code build comes out later this year, there’s every reason to believe that TrueNAS CORE is ready for prime time.

Read More – TrueNAS CORE 12 Review on HPE MicroServer

Источник

TrueNAS CORE: Руководство по установке и настройке расширенного NAS

Алгоритм подключения системы хранения данных к хосту достаточно универсален. Безусловно, существуют нюансы настройки, которые зависят от конкретного оборудования и топологии вашей сети.

Как выполнить подключение SAN к сети

Для дальнейшего успешного использования хранилище следует соединить с компьютером посредством кабельного соединения или организовать ему доступ в сеть. На корпусе блока отыщите разъем подключения. В нашем варианте он маркирован надписью «Mgmt. Ethernet».

Вставьте один конец кабеля в данный порт, а второй – в сетевой порт маршрутизатора, что обеспечит устойчивое подключение к сети.

При подключении хранилища к персональному компьютеру пользователям понадобиться кабель соединения, концевые зажимы которого выполнены по перекрестной схеме.

Windows Server | Windows … Windows Server | Windows … Windows Server | Windows …

При прямом соединении хранилища с ПК вставьте оставшийся конец кабеля в соответствующий lan-порт на задней панели компьютера.

Теперь включите хранилище и дождитесь окончания загрузки.

Рекомендации

Если СХД только создаётся, имеет смысл использовать оборудование одного производителя, чтобы избежать проблем с совместимостью устройств.

Во избежание всяких неприятных ситуаций лучше сразу обратиться к системному интегратору, например, к нам.

Это можно не делать, если у вас в штате есть несколько опытных и толковых администраторов, у которых много свободного времени. Хотя, по деньгам вы здесь вряд ли выиграете, так как их работа оплачивается, а также нужно будет приобретать нужные комплектующие и пытаться их «подружить».

Дисковая полка конструктивно состоит из жёстких дисков и источника бесперебойного питания. Его основная функция — не питать систему в случае отключения электричества, а предоставление возможности СХД корректно завершить все операции ввода-вывода при выключении полки. Поэтому, для защиты сторейджа по питанию устанавливайте ИБП.

По FC можно подключиться к коммутатору и тем самым расширить количество используемых устройств. На SAS нельзя повесить серверов больше, чем есть портов на массиве.

Покупайте полку сразу с дисками.

Не подключайте несколько хостов к одному LUN-у, если у вас не кластер. Такое соединение создает несогласованность записи, что приведёт к повреждению данных.

Сервис — очень важная вещь в СХД. Так как стоимость и масштаб потерь велики, не скупитесь, заключите договор с интегратором на обслуживание. В результате вы сэкономите время, нервы и, как ни странно, деньги.

Самому выбрать правильную конфигурацию под свои задачи не очень просто. ВИСТЛАН, имея большой опыт работы в этом направлении, поможет принять правильное решение и подобрать конфигурацию и оборудование для неё. Это тот случай, когда эксперименты обходятся дорого.

Конфигурация хранилища с ZFS

Файловая система ZFS — одна из наших фаворитов для серверов NAS, она предназначена для обеспечения максимально возможной целостности данных, а также отличной производительности и эффективности, поскольку у нас есть сжатие и дедупликация в реальном времени, поэтому мы значительно сэкономим хранилище. место на наших дисках. Другие функции заключаются в том, что мы можем создавать несколько пулов и наборов данных и даже снимки состояния изначально, в отличие от других файловых систем, которые создаются с помощью программного обеспечения, здесь, в ZFS, они являются встроенными благодаря схеме «Копирование при записи».

Конфигурация хранилища с ZFS

Чтобы настроить хранилище, первое, что нам нужно сделать, это перейти в раздел «Хранилище / Диски», и здесь мы увидим все диски, которые у нас сейчас есть на сервере. По логике, мы собираемся использовать все диски по 1000 ГБ, поскольку диск 100 ГБ используется для операционной системы. Если мы отобразим информацию о дисках, мы сможем увидеть тип диска, производителя, статус SMART и другие типичные параметры. Мы также можем провести ежегодный тест, посмотреть результаты SMART, а также отформатировать диски, если на них была информация.

Читайте также:  Электроизолирующие соединения назначение места установки

Конфигурация хранилища с ZFS

Убедившись, что все диски были правильно распознаны, мы собираемся создать «пулы» с дисками в разных конфигурациях.

Конфигурация хранилища с ZFS

ZFS — Пулы

Конфигурация хранилища с ZFS

В разделе «Хранилище / Пулы» нажимаем «Добавить», и появляется небольшой мастер настройки. В следующем меню нам нужно будет нажать на «Создать новый пул», который является опцией по умолчанию, теперь мы нажимаем на кнопку «Создать пул», и мы получаем имя пула для создания, а также, если мы хотим создать он зашифрован (зашифрован), идеально подходит для защиты всей внутренней информации.

Конфигурация хранилища с ZFS

После того, как мы указали имя и хотим ли мы, чтобы весь пул был зашифрован, пора выбрать один или несколько дисков, которые у нас есть.

Конфигурация хранилища с ZFS

Если мы нажмем кнопку «ДОБАВИТЬ VDEV», мы сможем создать обычный VDEV данных, а также кеша, журнала, горячего резерва, метаданных и дедупликации, наиболее нормальным является создание пула данных, а позже, если мы захотим повысить производительность, создать различные пулы кешей, журналов и многое другое.

Конфигурация хранилища с ZFS

В меню «Доступные диски» нам нужно будет выбрать диски, чтобы позже добавить их в пул виртуальных устройств (Vdevs). В зависимости от количества выбранных дисков мы можем выбрать режим конфигурации в разделе «Data Vdevs» чуть ниже. Мы должны помнить о работе разных уровней:

Конфигурация хранилища с ZFS

  • STRIPE: это RAID0 выбранных дисков, емкость — это сумма всех дисков.
  • Зеркало: это RAID1 выбранных дисков, но мы можем настроить более 2 дисков в качестве зеркала.
  • RAID-Z1: позволяет одному диску выйти из строя, это похоже на RAID 5. Если все диски имеют одинаковую емкость, общая емкость равна сумме всех дисков за вычетом емкости одного диска.
  • RAID-Z2: позволяет двум дискам выйти из строя, это похоже на RAID 6. Если все диски имеют одинаковую емкость, общая емкость равна сумме всех дисков за вычетом емкости двух дисков.
  • RAID-Z3 — позволяет трем дискам выйти из строя.

Конфигурация хранилища с ZFS

Как видите, возможности настройки довольно обширны при создании различных уровней RAID-Z.

Конфигурация хранилища с ZFS

После создания пула у нас будет возможность добавлять набор данных, zvol и даже редактировать определенные параметры, настраивать дисковые квоты для пользователей и групп, а также создавать моментальные снимки по запросу.

Конфигурация хранилища с ZFS

ZFS — Наборы данных

Конфигурация хранилища с ZFS

Что касается создания набора данных, мы должны иметь в виду, что у нас есть два разных набора данных, «файловая система», которая является набором данных по умолчанию и позволяет нам хранить обычные файлы и каталоги, но у нас также есть «zvol», который является блочным устройством. , чтобы использовать виртуальные диски для виртуализированных сред и других целей. Одна из наиболее важных частей — включить сжатие по умолчанию, либо с помощью lz4, либо с новым алгоритмом сжатия zstd, который позволяет нам настраивать различные уровни сжатия, иметь более высокую степень сжатия и быть медленнее или что-то еще быстрее и иметь более низкий коэффициент сжатия.

Конфигурация хранилища с ZFS

Мы также можем настроить синхронизацию ZFS, а также настроить время, дедупликацию, поведение снимков и многие другие дополнительные параметры конфигурации, особенно на уровне ACL (списки контроля доступа).

Конфигурация хранилища с ZFS

В случае, если вы хотите создать еще один пул с другим набором данных, мы можем легко сделать это из этих меню, которые мы вам показали, мы просто добавим новый пул с уровнем RAID-Z, который нам нужен, и все.

Конфигурация хранилища с ZFS

Прежде чем завершить работу с хранилищем ZFS, мы рекомендуем настроить ежедневные снимки состояния. Мы должны помнить, что эта встроенная функция ZFS позволит нам вернуться в случае удаления файлов по ошибке или с помощью программы-вымогателя. В других файловых системах это невозможно изначально, поэтому это делается с помощью программного обеспечения, в ZFS у нас почти неограниченное количество снимков, воспользуйтесь этим.

Конфигурация хранилища с ZFS

iSCSI | Seagate Россия

Интерфейс малых вычислительных систем (SCSI) — это распространенный протокол управления жесткими дисками. Internet SCSI (iSCSI) использует протокол SCSI на сетевых томах. В iSCSI контроллер называется «инициатором», а сетевой том — «целью».

Поскольку SCSI предлагает более высокую скорость, чем сетевые файловые системы, такие как SMB и NFS, рассмотрите возможность создания целей iSCSI для пользователей с уникальными приложениями.

Например, более высокая скорость протокола может хорошо отразиться на работе ПК в сети, используемого для редактирования аудио- или видеоматериалов.

При использовании цели iSCSI вместо стандартного накопителя с прямым подключением возможно создать централизованный пул носителей, которым легче управлять.

Протокол iSCSI встроен в профессиональные версии операционной системы Windows. Программное обеспечение третьих сторон также доступно для Mac.

Когда инициатор сопряжен с целью, целевой том должен быть отформатирован для операционной системы, подобно стандартным жесткими дисками SCSI.

Например, инициатор Windows может отформатировать цель как NTFS, а инициатор Mac может использовать HFS+.

WSS 2012 может также действовать как сервер имен для нескольких целей iSCSI в сети. Цели регистрируются на сервере, позволяя инициаторам подключаться к одному устройству вместо того, чтобы искать несколько целей в сети.

Функция WSS 2012, управляющая целями iSCSI, называется службой имен хранилища в интернете (iSNS).

Ваш сервер Seagate может управлять именами целей iSCSI, созданных в его собственном пуле носителей, а также другими серверами Windows и Linux в сети.

Инициаторы iSCSI

Инициатор iSCSI — это сервер или компьютер, записывающий данные на цель iSCSI. Инициатор может найти и подключить цель в сети.

Цель также может ассоциировать себя с iSCSI имеет полное имя iSCSI (IQN), которое может быть полезно при идентификации компьютера, использующего цель.

Чтобы узнать IQN инициатора в Windows:

  • найдите инициатор iSCSI и запустите его. IQN отображается как имя инициатора на вкладке конфигурации окна свойств инициатора iSCSI::seagate-ddddd;

Windows Server | Windows … iSCSI в Windows Server Windows Hyper-v или Core server

  • откройте окно команд Windows PowerShell и введите командлет iscsisli. IQN отображается в квадратных скобках как приглашение.

Создание цели iSCSI

  1. В диспетчере сервера выберите «Файловые службы и службы хранилища».
  2. Выберите «iSCSI».Появится таблица существующих виртуальных дисков iSCSI.
  3. Выберите «Задачи» > «Новый виртуальный диск iSCSI».
  4. Используйте мастер «Новый виртуальный диск iSCSI», чтобы создать диск и цель. Вы можете также дополнительно добавить инициатор.

Важно! Совместное использование файлов при подключении цели iSCSI к нескольким компьютерам в сети может привести к повреждению файлов.

Исключением является сеть с кластерным сервером iSCSI, использующим управление совместным использованием файлов. WSS 2012 не может действовать как кластерный сервер iSCSI.

Добавление сервера iSNS

iSNS предусматривает службы обнаружения инициаторов и целей iSCSI в сети. Перед запуском iSNS нужно добавить его функцию к WSS 2012.

  1. В диспетчере сервера выберите «Файловые службы и службы хранилища».
  2. Выберите «Серверы».
  3. В списке серверов выберите сервер, на котором следует включить iSNS.
  4. Выберите «Задачи» > «Добавить роли и функции».
  5. Используйте мастер «Добавление ролей и функций», чтобы добавить iSNS.
  6. В разделе «Тип установки» выберите «Установка на основе роли или функции» и нажмите «Далее».
  7. Выберите сервер и нажмите «Далее».
  8. В разделе «Файловые службы и службы хранилища» > «Файловые службы и службы iSCSI» выберите «Функции».
  9. Выберите «Служба сервера iSNS» и нажмите «Далее», чтобы закончить установку.
  10. Если появится приглашение, перезагрузите сервер.
Читайте также:  Расчет параметров установки газового пожаротушения

Регистрация цели iSCSI на сервере iSNS

Убедитесь, что служба iSNS добавлена к функциям WSS 2012.

  1. Запустите PowerShell на целевом сервере iSCSI.
  2. Наберите:Set-WmiInstance -Namespace root\wmi -Class WT_iSNSServer –Arguments @Где Your_iSNS_ServerName — это имя вашего сервера iSNS.

Важно! Устройства сторонних производителей или совместимые устройства NAS могут иметь особые параметры для подключения цели iSCSI к серверу iSNS. На устройствах Seagate NAS OS предусмотрен параметр для подключения целей iSCSI к серверу iSNS.

Источник

TrueNAS — TrueNAS

TrueNAS — это торговая марка ряда бесплатных операционных систем сетевого хранения (NAS) с открытым исходным кодом, производимых ixSystems и основанных на FreeBSD и Linux , использующих файловую систему OpenZFS . Он лицензирован в соответствии с условиями лицензии BSD и работает на стандартном оборудовании x86-64 .

Ассортимент TrueNAS включает бесплатные общедоступные версии (TrueNAS CORE, ранее известный как FreeNAS), коммерческие версии (TrueNAS Enterprise), версии для Linux (TrueNAS SCALE, разрабатываются с января 2021 года) и аппаратное обеспечение от небольших домашних систем до массивов размером 10 петабайт на основе на этих.

TrueNAS поддерживает клиентов Windows , macOS и Unix, а также различные узлы виртуализации, такие как XenServer и VMware, с использованием протоколов SMB , AFP , NFS , iSCSI , SSH , rsync и FTP / TFTP . Расширенные функции TrueNAS включают полное шифрование диска и архитектуру подключаемых модулей для стороннего программного обеспечения.

СОДЕРЖАНИЕ

Продукты

TrueNAS — это торговая марка сетевой платформы хранения данных ixSystems с открытым исходным кодом. Это включает:

  • TrueNAS CORE (ранее FreeNAS) — бесплатный файловый сервер и расширяемая платформа на базе FreeBSD
  • TrueNAS Enterprise — корпоративный файловый сервер для коммерческого использования, также основанный на FreeBSD.
  • TrueNAS ВЕСЫ — это Linux на основе гипер-конвергентной версия платформы TrueNAS, в стадии разработки по состоянию на январь 2021 года .
  • Аппаратное обеспечение под брендом TrueNAS — корпоративные массивы хранения, системы сетевого хранения (NAS), устройства сети хранения данных (SAN) и системы высокой доступности с необработанной емкостью до 10 петабайт.

Файловая система OpenZFS

TrueNAS поддерживает файловую систему OpenZFS, которая обеспечивает проверку целостности данных для предотвращения повреждения данных , позволяет создавать моментальные снимки , репликацию и несколько уровней избыточности, включая чередование , зеркалирование , чередующиеся зеркала (RAID 1 + 0) и три уровня RaidZ .

Пользовательский опыт

TrueNAS управляется через комплексный веб-интерфейс, который дополняется минимальной консолью оболочки, которая выполняет основные административные функции. Веб-интерфейс поддерживает настройку пула хранения, управление пользователями, настройку совместного использования и обслуживание системы. Как встроенное системное устройство TrueNAS загружается с USB-накопителя или SATA DOM . Этот образ настраивается с помощью загрузочного установщика USB Flash / CD-ROM. Операционная система TrueNAS полностью независима от дисков хранения, что позволяет создавать резервные копии базы данных конфигурации и ключей шифрования и восстанавливать их до новой установки ОС. Это разделение также позволяет выполнять обновления системы TrueNAS через веб-интерфейс.

История

Проект FreeNAS был начат в октябре 2005 года Оливье Кочар-Лаббе, который основал его на встроенном межсетевом экране m0n0wall и FreeBSD 6.0 . Фолькер Тайле присоединился к проекту в июле 2006 года и стал руководителем проекта в апреле 2008 года. В сентябре 2009 года группа разработчиков пришла к выводу, что проект, на тот момент находившийся в версии .7, должен был быть полностью переписан, чтобы учесть современные функции, такие как подключаемая архитектура. Фолькер Тайле решил, что проект лучше всего реализовать с помощью Debian Linux, и переключил свои усилия на разработку временного проекта CoreNAS и, в конечном итоге, OpenMediaVault, где он продолжает возглавлять проект. Кокард-Лаббе ответил на возражения сообщества по поводу «версии FreeNAS для Debian», возобновил деятельность в проекте и руководил его передачей пользователю FreeNAS iXsystems . Разработчики Дайсуке Аояма и Майкл Зун продолжили разработку FreeNAS 7 как проекта NAS4Free . Тем временем iXsystems переписала FreeNAS с новой архитектурой, основанной на FreeBSD 8.1, выпустив FreeNAS 8 Beta в ноябре 2010 года. Архитектура подключаемых модулей появилась с FreeNAS 8.2, а управление версиями FreeNAS было синхронизировано с FreeBSD для ясности. FreeNAS 8.3 представил полное шифрование диска, а FreeNAS 9.1 на базе FreeBSD 9.1 принес обновленную архитектуру подключаемых модулей , совместимую со структурой управления тюрьмами TrueOS Warden. FreeNAS 9.1 также был первой версией FreeNAS, в которой использовалась поддерживаемая сообществом OpenZFS v5000 с флагами функций. FreeNAS 9.2, основанный на FreeBSD 9.2, включал улучшения производительности и представил REST API для удаленного администрирования системы. FreeNAS 9.3, основанный на FreeBSD 9.3, представил загрузочное устройство на основе ZFS, мастер начальной настройки и высокопроизводительный сервер iSCSI в ядре . FreeNAS 9.10, основанный на FreeBSD 10.3-RC3, положил конец синхронизированному именованию FreeNAS / FreeBSD и представил поддержку мониторинга Graphite и экспериментальную поддержку гипервизора bhyve .

В октябре 2015 года, через десять лет после первоначального выпуска FreeNAS, была выпущена FreeNAS 10 ALPHA, которая представляет собой предварительную версию того, что станет FreeNAS Corral GA 15 марта 2017 года. FreeNAS Corral представила новый графический пользовательский интерфейс , интерфейс командной строки , лежащее в основе промежуточное ПО. , система управления контейнерами и система управления виртуальными машинами . FreeNAS Corral отличается от FreeNAS, обеспечивая не только функциональность NAS, но и гиперконвергентную функциональность благодаря встроенной поддержке виртуальных машин . Однако 12 апреля 2017 года iXsystems объявила, что FreeNAS Corral вместо этого будет отнесена к категории «Предварительная версия технологии», сославшись на такие проблемы, как «общая нестабильность, отсутствие паритета функций с 9.10 (тюрьмы, iSCSI и т. Д.), А также некоторые пользователи, испытывающие производительность ниже ожидаемой »и уход руководителя проекта. Вместо этого было принято решение вернуться к существующему коду 9.10 и перенести функции Corral в 9.10.3 и далее.

В мае 2017 года iXsystems объявила, что в скором времени будет выпущен FreeNAS 11, основанный на версии 9.10, но включающий такие функции, как обновление операционной системы FreeBSD, управление виртуальными машинами , обновления тюрем и новый пользовательский интерфейс бета-версии по типу Corral, но на основе Angular .

В марте 2020 года iXsystems объявила, что версия 12.0 объединит кодовую базу FreeNAS с базой кода их коммерческого предложения TrueNAS. FreeNAS станет TrueNAS CORE, а TrueNAS будет переименован в TrueNAS Enterprise. Это изменение было официально внесено с выпуском TrueNAS 12.0 20 октября 2020 года.

В октябре 2020 года iXsystems анонсировала новый продукт — TrueNAS SCALE. Он по-прежнему будет использовать ZFS, но будет основан на Linux.

Архитектура

Повторная реализация FreeNAS 8.0 переместила проект с архитектуры на основе m0n0BSD / m0n0wall / PHP на архитектуру, основанную на встроенной системе сборки FreeBSD NanoBSD, языке программирования Python , фреймворке веб-приложений Django и наборе инструментов dōjō ( библиотека JavaScript ). Он также использовал веб-сервер lighttpd , но в FreeNAS 8.2 он был заменен на nginx . Преемник 9.10.2, известный как FreeNAS Corral, сохранил веб-сервер nginx и загрузочное устройство FreeNAS на основе ZFS, но заменил структуру веб-приложений Django / dōjō на исходную. FreeNAS 11 реализовал новый интерфейс с использованием Angular.

Источник

Adblock
detector