Мега-цоды — пионеры инноваций. часть 2

Мега-цоды — пионеры инноваций. часть 2

Мы продолжаем знакомство с современными очень большими дата-центрами, начатое прошедшей статьей, и сейчас поболтаем о том, как решается одна из самые важных неприятностей — хранение данных. Помимо этого, мы мало поболтаем о ближайшем будущем таких мега-ЦОД.Очевидно, совокупность хранения данных не имела возможности не стать узким местом для весьма и весьма многих применений мега-ЦОД.

Не обращая внимания на громадный прорыв в данной области, не всегда существующих ответов достаточно для беспроблемного ответа поднимающихся задач. Сложно кроме того вообразить, какие конкретно количества данных обрабатываются каждую секунду в дата-центрах Amazon, Гугл, Facebook и других компаний. Не только количества данных и скорость их поступления составляют сущность неприятности, в действительности необходимо принимать в расчет массу дополнительных неприятностей, начиная с сохранности данных и их защиты, и заканчивая юридическими требованиями по так именуемому «удержанию данных» (data retention).
Смотрите кроме этого: Мега-ЦОДы — пионеры инноваций

По последним изучениям компании EMC, количество данных, сгенерированных в 2012 году образовывает 2.8 зеттабайта (10^21 байт) а к 2020 году эта цифра дорастет до 40 зеттабайт, что превосходит прошлые прогнозы на 14%. Возможно смело констатировать, что мы уже столкнулись с «великим потопом данных» и одним из ответов на это есть рост доли самых громадных дата-центров, каковые довольно часто именуют «мега-ЦОД» — их часть по различным оценкам образовывает приблизительно 25% рынка современных серверов.

Фактически без исключений, СХД громадных дата-центров строятся по принципу прямого подключения хранилища (DAS): их несложнее купить (не забывайте обсуждение важности оптимизации затрат в первой части статьи?), они дешевле в обслуживании, они снабжают лучшую пропускную свойство если сравнивать с ответами на базе NAS и SAN, не говоря уже о большей производительности. Время от времени в совокупностях хранения данных громадных ЦОДов употребляются простые потребительские диски и SSD с подключением SATA, все большее распространение получает Serial Attached SCSI, многие мигрируют на SAS, которая совместима с простыми SATA дисками, владея кроме этого рядом неоспоримых преимуществ, как по скорости, так и по простоте управления.

Кроме этого отмечается процесс миграции на интерфейсы SAS, поддерживающие пропускную свойство 12 Гбит/с.Еще недавно, главными показателями оценки совокупностей хранения данных выступали количество операций в секунду (IOPS) и большая пропускная свойство интерфейса, измеряемая в мегабайтах в секунду. Реалии работы мега-ЦОДов продемонстрировали, что современные СХД, трудящиеся на SSD довольно часто достигают большой производительности ввода-вывода (довольно часто до 200 000 IOPS) и скорость передачи разрешённых перестаёт играть важную роль.

На первый замысел выходит таковой показатель, как задержка операций I/O, именно она оказывает главное влияние на наиболее значимые для ЦОДов для того чтобы размера показатели эффективности работы инфраструктуры, степени загрузки сервера и, очевидно, скорость работы приложений. Главными методами оптимизации являются внедрение SSD, особых плат для кэширования и комбинация этих двух вариантов.

В действительности, время задержки операций ввода-вывода для простого твёрдого диска образовывает где-то 10 миллисекунд (0.01 секунды). В SSD задержка чтения образовывает где-то 200 микросекунд, а записи — 100 микросекунд (0.0002 и 0.0001 секунды, соответственно). Специальные PCIe карты (сравнительно не так давно мы обрисовывали подобное ответ LSI Nytro, на практике показывая его эффективность) смогут обеспечить еще меньшую задержку, составляющую пара десятков микросекунд.

При грамотном применении SSD разработок, комбинируя различные ответы для хранения данных, возможно добиться среднего прироста от 4 до 10 раз, что в условиях мега-ЦОДов может вылиться в огромные суммы прибыли для обладателя.Корпоративные SAN-хранилища от внедрения разнообразных ответов для кэширования побеждают еще больше, потому, что кэш нивелирует влияние самой медленной части таких хранилищ — сетевой инфраструктуры. Современные карты оптимизации I/O смогут хранить до нескольких террабайт «тёплых» данных в собственном кэше, так довольно часто в нем может поместиться целая БД, являющаяся критичной для работы приложения.В корпоративных структурах, в отличии от мега-ЦОД, еще не всегда используют задержки ввода-вывода как один из главных параметров оценки СХД, опираясь больше на показатели IOPS и стоимости хранения одного гигабайта данных, противопоставляя классические твёрдые диски SSD.

Со своей стороны, опыт построения современных очень больших ЦОДов говорит о том, что кроме того применяя более дорогие SSD, возможно взять в будущем более действенную инфраструктуру, снизив затраты на ее помощь и оптимизировав ее эффективность. Если сравнивать с HDD, современные SSD менее подвержены сбоям, несложнее в обслуживании и потребляют меньше электричества, что есть весомым «бонусом» к их малым и: основным достоинствам скорости задержкам операций ввода-вывода, что разрешает обрабатывать больше данных на меньшем количестве серверов, экономя так же на договорах на сервисное обслуживание и лицензиях на ПО.Что же ожидает мега-ЦОДы в будущем?

Первое место применения инноваций — это ПО. В некоторых случаях очень большие дата-центры были пионерами применения ответов, каковые позже вошли в «повседневный быт» IT (в случае если само собой разумеется это выражение тут применимо. В качестве примеров возможно привести такие решения как Apache Cassandra, Гугл Dremel и, очевидно, Hadoop.

Природа аналогичных приложений эволюционирует с огромной скоростью, довольно часто речь заходит не о годах, а о месяцах.на данный момент мы можем замечать, как две очень юные разработки изменяют мир корпоративных ЦОДов, как в свое время Linux поменял рынок серверов по большому счету. OpenCompute — инициатива, направленная на создание открытой минималистичной и действенной архитектуры вычислительных ЦОД.

Предложенная Facebook в 2011 году, на данный момент она переживает настоящий бум и может привести ко многим трансформациям (к примеру модели «открытого обслуживания» по принципу «открытого ПО»). Вторая инициатива — OpenStack уже на данный момент есть базой баз большинства программно- определяемых ЦОДов, за счет создания сетевой пула и инфраструктуры ресурсов обработки ресурсов, которыми возможно руководить машинально.

Так же в скором времени нас ожидают решения для дезаггрегации серверов на уровне стойки: они разрешат отделить все компоненты сервера (процессор, память, блок питания и т.д.) друг от друга, и руководить ими по-отдельности. Это разрешит еще больше повысить эффективность применения «железа» в очень больших ДЦ.Подводя результат, возможно сообщить что мега-ЦОДы живут на переднем краю инноваций, это как раз та область IT, которую можно считать «первопроходцами» во многих областях, они прокладывают дорогу, по которой скоро направляться вся отрасль….to boldly go where no man has gone before!

Случайная статья:

ЗВУК за 350 000р VS. ПОЛИЦИЯ


Похожие статьи:

Комментирование и размещение ссылок запрещено.

Обсуждение закрыто.