«Облачные» приложения: на 25% меньше затрат с Data Science

Сергей Шельпук

Автор статьи: Сергей Шельпук, директор направления Data Science в V.I. Tech, преподаватель курса Machine Learning в школе Lviv IT School (LITS)

 

«Облачные» приложения прочно вошли в нашу жизнь с одним, главным тезисом: использование выделенных серверов часто неэффективно, вы можете тратить меньше, если будете использовать виртуализацию. Возможность получать ту же производительность за меньшие деньги стала отправной точкой в сегодняшней популярности SaaS, PaaS и IaaS технологий.

Но насколько совершенны «облака»? Можем ли мы тратить еще меньше, чем тратим сегодня? Можем ли мы улучшить сегодняшние «облачные» сервисы?

Что мы знаем об «облаках» сегодня с точки зрения бизнеса и эффективности? В 2013 году на «облачные» сервисы и технологи в мире было потрачено $47,4 млрд. В 2017 году ожидается, что эта сумма достигнет $107 млрд. (IDC Forecast). В 3 миллионах дата-центрах Соединенных Штатов работает 12 миллионов серверов – 24% всех серверов мира (National Geographic). Эти сервера потребляют 3% энергии страны.

Масштабы «облаков» и «облачного» бизнеса поражают воображение. Однако насколько эффективно используются эти поистине гигантские средства и мощности?

Процент использования мощностей виртуальных машин в среднем составляет чуть более 50%. Это значит, что около половины средств, затрачиваемых на «облачную» инфраструктуру, тратится впустую, покупаемая мощность резервируется просто «на всякий случай» — если возрастет нагрузка. Итого, около 50% виртуальных машин не делают ничего.

Дальше: 30% физических серверов в дата-центрах США загружены на 15% или меньше – по сути дела, они ничего не делают. Эти сервера потребляют в год суммарно 39 млрд. киловатт-часов электроэнергии общей стоимостью в $3,8 млрд. Этой энергии было бы достаточно, чтобы обеспечить электричеством 3,5 млн. американских домохозяйств.

И на самом «нижнем» уровне – ИБП, кондиционеры и прочее оборудование, призванное обеспечить работы серверов, 30% из которых ничего не делают.

Data Science – один из способов решить эту проблему. Технологии prescriptive analytics способны «заглянуть в будущее», предсказать ожидаемую нагрузку на приложение или физический сервер и оценить риски в рамках SLA с каждым отдельным пользователем. Они могут полностью самостоятельно управлять вашими облачными мощностями, запуская и останавливая виртуальные машины именно тогда, когда это нужно.

Один из примеров таких систем – Predictive Capacity Controller компании QRhythm. Его использование позволяет увеличить утилизацию виртуальных мощностей до 85% и при этом обеспечить SLA в 99,96% даже в неделю с нетипичным пиком нагрузки (Black Friday). Система учитывает то, что виртуальные машины запускаются какое-то время, могут не запуститься, внезапно прекратить работать, а также отличаться по характеристикам.

диаграмма

Такие Data Science технологии позволяют не только экономить деньги и делать бизнес на «облачных» технологиях более эффективно, они также помогают сохранить энергию – один из ключевых ресурсов мира XXI века – и сделать ИТ продукты более «зелеными» и дружественными к окружающей среде.

Сергей Шельпук для DataReview

1 комментарий

  1. 27.02.2015

    […] работать, а также отличаться по характеристикам», – пояснил DR Сергей […]

Добавить комментарий

Ваш e-mail не будет опубликован.

закрыть

Поделиться

Отправить на почту
закрыть

Вход

закрыть

Регистрация

+ =