10 задач, которые не смогут решить большие данные

Руководители многих компаний внедрили технологии big data, ожидая «чуда», но обнаружили, что в итоге добавились новые трудности, а достижение результатов требует гораздо больших усилий, чем они предполагали.

Руководство каждой организации надеется, что большие данные смогут ответить на основные вопросы бизнеса, сделают компанию более конкурентоспособной на рынке и помогут улучшить поставляемые продукты и услуги. Однако экономический эффект от внедрения технологий big data останется нереализованным, если не оказать ему необходимую «помощь». Рассмотрим 10 ключевых задач, с которыми сами по себе большие данные не смогут справиться без определенного содействия.

1. Решение бизнес-задач

Большие данные не решают бизнес-задачи. Это делают люди. Только те организации, которые понимают, чего хотят получить от больших данных, могут добиться соответствующих результатов от бизнес-аналитики.

2. Организация эффективного управления данными

По оценкам IBM, в мире ежедневно генерируется 2,5 квинтиллиона (2,5*1018) байт данных. Большая часть из них – это big data. Неудивительно, что экспоненциально увеличился и объем данных, управляемых компаниями по всему миру. При отсутствии четкой структуры и политики использования (особенно в отношении больших данных) информация беспорядочно нагромождается, и, как следствие, организациям становится сложно управлять ею.

3. Вопросы безопасности

Для многих компаний реализация безопасного доступа к big data – по-прежнему открытый вопрос. Это происходит потому, что меры безопасности для больших данных не выработаны в отличие от аналогичных мер для данных, относящихся к системам записей (system of record). Сегодня ИТ-отдел должен работать с конечными пользователями, чтобы определить, кто и к какому уровню больших данных и соответствующей аналитики должен получить доступ.

4. Поиск редких специалистов

Управление базами данных и серверами, разработка ПО, умение структурировать и анализировать информацию – достаточно дефицитные навыки. Потребность компаний в подобных специалистах создает дополнительные трудности для ИТ-отделов, которые и без того зачастую не полностью укомплектованы.

5. Сокращение доли традиционных систем

Традиционные системы записей полезны, как никогда, при использовании больших данных. Часто именно эти системы дают ключ к тому, как наилучшим образом подготовить большие данные для анализа, чтобы ответить на важные бизнес-вопросы.

6. Упрощение структуры дата-центра

Для обслуживания больших данных требуются вычислительные кластеры, реализующие параллельную обработку, а также необходим другой стиль управления системой по сравнению с традиционными транзакционными системами и хранилищами данных. Это означает, что энергопотребление, система охлаждения, ПО, оборудование и квалификация, необходимая для обслуживания новых систем, также будут другими.

7. Повышение качества данных

Преимущество транзакционных систем заключается в том, что поля данных имеют фиксированную длину, информация проверяется, очищается и структурируется. А вот с большими данными, не имеющими структуры и поступающими в различных формах, дело обстоит немного иначе. Поэтому качество здесь – настоящая «головная боль». При этом именно оно имеет решающее значение, иначе вы не можете доверять результатам анализа.

8. Оптимизация показателей окупаемости инвестиций (ROI)

Наиболее распространенный способ измерить окупаемость инвестиций для системы записей – отследить скорость транзакций и сделать вывод о том, что это означает с точки зрения полученной прибыли (например, сколько новых операций бронирования номера в отеле происходит за минуту).

Скорость транзакций – неудачный показатель в отношении обработки big data: могут потребоваться часы или даже дни, чтобы подготовить большой набор данных и произвести анализ. Вместо этого, наилучший показатель для оценки эффективности обработки больших данных – коэффициент использования системы (utilization), который должен быть выше 90% (для транзакционных систем он может составлять всего 20%). Применение новых ROI-показателей — поистине важный момент.

9. Уменьшение количества «шума»

95% больших данных – это «шум», не вносящий существенный вклад в бизнес-аналитику. Просеивание этих данных, в поисках крупиц полезных знаний, действительно способных помочь бизнесу, может оказаться очень сложной задачей.

10. Стабильность результатов

В течение многих лет университеты и научно-исследовательские центры проводили эксперименты с большими данными, чтобы получить ответы на вопросы в области генетики, фармацевтики и даже узнать, была ли жизнь на других планетах. Хотя некоторые из этих исследований принесли свои плоды, многие оказались безрезультатными. Отсутствие результатов допустимо для университетов и исследовательских лабораторий, но не для бизнеса. В корпоративной среде руководители должны рационально оценивать свои возможности и не строить «воздушных замков».

Автор: Мэри Шеклет 

Перевод Станислава Петренко

По материалам: TechRepublic

 

Добавить комментарий

Ваш e-mail не будет опубликован.

закрыть

Поделиться

Отправить на почту
закрыть

Вход

закрыть

Регистрация

+ =