Все новости

Георгий Иващенко делится экспертизой в статье «Принцип разумной достаточности»

Ventra BTL&Event

Специально для издания «Открытые системы» ведущий бизнес-аналитик Ventra Георгий Иващенко подготовил статью «Цепочки поставок: принцип разумной достаточности», в которой поделился с читателями, как без дорогостоящих решений выявлять закономерности в цепочках поставок, инициировать процессы по их оптимизации и управлять эффективностью.

Количественный рост объемов данных привел к качественным изменениям в способах их хранения, обработки и анализа, особенно если учесть, что 52% данных хранится сейчас в корпоративных системах, а остальные — на мобильных устройствах, в настольных компьютерах и развлекательных системах. Изменились и методы конкурентной борьбы. Компании стремятся получить доступ к информационным потокам, на исследование которых тратятся сегодня огромные средства: данные карт лояльности клиентов, данные с сайтов, обработка видео и пр. — все собираемые неструктурированные данные ложатся «на стол» алгоритмов прогнозирования и систем помощи при принятии решений. Однако сам факт повсеместной реализации подобных инициатив еще не означает их эффективности.

В бизнесе, напрямую не связанном с ИТ и телекоммуникациями, появление понятия Big Data привело к феномену своеобразного «карго-культа»: усилия по работе с большими данными имеют смысл лишь для таких корпораций, как Microsoft, Google, Facebook и Amazon, для которых соответствующие технологии являются вынужденной мерой, поскольку без них бизнес просто невозможен, а остальные компании, слепо следуя тенденциям, массово внедряют идентичные стеки технологий, фактически при этом работая со сравнительно небольшими объемами типовых данных, собираемых далеко не в реальном времени.

Каждая отрасль по-своему воспринимает понятие «большие данные». С большими пластами различных сведений традиционно работает банковский сектор, располагающий хорошо структурированными данными. Но крупнейшие представители этого сектора, образующего огромную ИТ-экосистему, уже не просто работают с большими объемами информации с целью совершенствования своих математических моделей, а пытаются решать множество дополнительных задач, позволяющих получить преимущества на рынке (реклама, обработка данных для использования в нетрадиционных для банковской сферы сервисах). Не отстают промышленность и ретейл, большинство бизнес-процессов которых связано с людьми (работа торговых точек, выкладка товаров на полки, анализ поведения потребителя), что предъявляет особые требования к способам сбора данных и обеспечения их качества. Отечественные компании ИКТ-сектора также озабочены повышением производительности обработки и качеством данных, в разных форматах поступающих по множеству каналов. Мода на большие данные не прошла и мимо сферы цепочек поставок (Supply Chain), причем здесь особо ощущается карго-культ. Объемы данных, имеющих отношение к цепочкам поставок, несравнимо меньше объемов транзакций банковского сектора или данных по потребительскому поведению в ретейле, однако уровень их нормализации достаточно высок: практически вся обрабатываемая информация находится в корпоративных системах, сотрудники следуют четкой пошаговой инструкции по работе с ними, — а это означает, что качество данных достаточно высокое.

Одна из главных технических проблем обработки больших данных, характерная не только для предприятий цепочки поставок, — децентрализация. Многие участки цепочки поставок отдаются на аутсорсинг, и, естественно, получаемая от подрядчиков информация может иметь свою собственную форму и особенности. Даже в рамках одной компании производство, транспорт и склад могут хранить и обрабатывать свои данные в разных системах: ERP, Transport Management Software (TMS), Warehouse Management System (WMS), — и для получения общего представления об эффективности цепочки поставок необходимо в одной точке сводить результаты их работы. Однако процедуры обмена информацией между этими системами настроены в основном для функционирования бизнес-процессов (документооборот, транзакционный обмен), а не для консолидации данных с целью их дальнейшего анализа.

Иначе говоря, системы связаны, но информация в них существует обособленно, и, для того чтобы получать от нее максимальную отдачу, нужно отрабатывать механизмы консолидации данных.

С точки зрения бизнеса основная причина, по которой не удается использовать имеющуюся информацию для увеличения эффективности цепи поставок, состоит в низкой культуре обращения с данными, что вызвано, в частности, отсутствием ресурсов на содержание качественной ИТ-инфраструктуры. Департамент цепочек поставок прибыли не приносит, и его деятельность для бизнеса затратна, поэтому одним из основных факторов его эффективности становится не только уровень обслуживания, но и сокращение расходов на свое функционирование. Конечно, на сегодняшний день логистика уже не может функционировать без систем WMS и TMS, однако даже многие крупные компании все еще используют устаревшие версии систем «1С», SAP, PSI, которые неплохо выполняют свои прямые функции, но модули аналитики в них появились относительно недавно и эффективно работают часто лишь внутри собственной программной экосистемы. Или того хуже — аналитика настраивается только в рамках одного модуля, что опять же не позволяет добиться получения взаимосвязей между событиями. Все это на фоне того, что бизнес обычно не спешит инвестировать в обновление системы. Поэтому на сегодняшний день в логистических департаментах основным инструментом работы с данными остается выгрузка отчета в Excel. В свою очередь, департамент цепочек поставок не нанимает штат программистов и аналитиков, которые бы занимались непосредственным поддержанием нормальной работы систем ERP, TMS и WMS. Например, в департаментах логистики имеются должности бизнес-аналитиков и системных аналитиков, которые оценивают и оптимизируют физические процессы под возможности конкретной информационной системы.

С точки зрения ИТ основная работа в логистике связана с обеспечением постоянного, бесперебойного функционирования систем управления в условиях непрерывно меняющихся физических процессов, а анализ данных, прогнозирование и планирование ресурсов ведутся операционным персоналом: начальниками смен, складов, технологами и пр. При этом все отчеты обрабатываются вручную, а так как их формирование является дополнительной нагрузкой на операционный персонал, владеющий только Excel, то отчеты составляются хоть и с высокой скоростью, но без соблюдения основных принципов работы с данными, к которым относятся доступность, обогащенность и взаимосвязанность. В ходе изучения отчетности ряда логистических компаний обнаружилось, что некоторые показатели, которые должны быть вычисляемыми, не имеют ссылок на первоисточник. Например, информация о среднем грузообороте вписывается в отчетность отдельным числом, хотя должна иметь ссылку на массив данных по входу и выходу палет со склада. Иначе говоря, фактически данный показатель был высчитан вручную с помощью просмотра массива данных внутри системы. Быстро оценить, насколько корректно была обработана информация, не представляется возможным, а данные, предоставляемые таким образом, принимаются как экспертные. Это вызывает ряд проблем: вмешательство человека в обработку отчета чревато внесением ошибок; требуется больше времени для получения нужных данных; возрастает нагрузка на специалистов; уменьшается прозрачность отчетности (как правило, отчеты, составленные людьми вручную, принимаются «на веру»).

Функционирование логистики связано не только с системами управления — имеется еще множество внешних факторов, которые следует учитывать бизнесу: производительность труда, неравномерность товародвижения, погодные условия. Оценивая все многообразие таких факторов, можно предложить много гипотез (например, зависимость задержек прихода транспорта на склад от погодных условий) и, соответственно, более точно и своевременно определять колебания неравномерности грузооборота. Или, скажем, отслеживать более «приземленные» категории, такие как производительность труда каждого сотрудника, процент брака от поставщиков или боя на складе либо удельную стоимость грузообработки, в реальном времени.

Учет всех факторов может сильно повлиять на эффективность логистики, однако для подтверждения тех или иных предположений требуется не только постоянно извлекать и обрабатывать данные, но и обогащать их всеми имеющимися внешними сведениями, одновременно оценивая результаты.

Сегодня на рынке представлен ряд недорогих систем бизнес-аналитики, таких как Power BI, Qliktech и Tableau, которые позволяют подключаться практически к любым источникам информации, получать нужные данные, обрабатывать их и в реальном времени выводить пользователю. Многие из этих систем сегодня ориентированы на конечного потребителя — в частности, системы Self service BI предназначены для сотрудников, не имеющих специализированных ИТ-навыков. Такие системы уже давно присутствуют на рынке и вполне могут конкурировать с инновационными решениями, которые не продаются в «коробке» и представляют собой целый стек технологий: брокеры данных (Kafka), библиотеки и языки R/Phyton, инструменты для распознавания текста, голоса и изображений. Например, компании Google, Microsoft, Facebook и «Яндекс» работают именно с такими стеками технологий, настроенных под каждую конкретную задачу, а массовый потребитель получает от них продукты типа Power BI и Google Analytics. Однако информационные гиганты имеют доступ к гигантским объемам информации, которые совсем не требуются для многих задач цепочек поставок, совершенно спокойно решаемых с помощью коробочных продуктов. Естественно, стоимость и скорость внедрения таких продуктов гораздо ниже, чем «инновационных стеков», но при этом работать с информационной системой может любой работник, а обслуживать базу данных способен штатный ИТ-специалист средней квалификации.

Конечно, данный подход не подразумевает автоматизацию процессов прогнозирования и принятия решений, однако гарантирует их наглядность, что наиболее приемлемо для цепей поставок из-за гибкости и низкого порога для внедрения и эксплуатации. При этом системы Self Service BI — лишь один из компонентов решения по максимизации эффективности использования данных.

Принципы работы с данными

Доступность — возможность быстрого получения и использования необходимых данных любым сотрудником, не имеющим навыков программирования, для проверки бизнес-гипотез. Системы Self Service BI предоставляют доступ сразу ко всему постоянно обновляемому набору данных, что позволяет их исследовать в динамике.

Обогащенность — подключение всевозможных источников внешних сведений, открывающих новые точки обзора того или иного физического явления. Каждый показатель, влияющий на изменение эффективности, не должен просто приниматься «как есть» — необходимо понимать причины, по которым этот показатель имеет то или иное значение, что зачастую зависит от многих сложно оцениваемых факторов.

Взаимосвязанность — неразрывность модели данных, требуемая для формирования единого информационного пространства, благодаря которому становится возможной работа персонала всех уровней и направлений. Следует отметить, что построение взаимосвязанной модели на нижнем уровне структуры — это идеальный фундамент для создания пирамидальной модели, в которой каждый участник цепочки поставок видит свои критерии эффективности, а также влияющие на них критерии более низкого уровня. Например, на эффективность цепочки поставок влияет эффективность транспортной и складской логистики в регионе, а на эффективность складской логистики в регионе влияет эффективность работы каждого отдельного склада, при этом директор по цепям поставок не будет спускаться до проблем конкретного склада, но, благодаря взаимосвязанности информационного пространства, начальник каждого склада может следить за своими показателями, а директор региона — своевременно выявлять проблемные склады.

Следуя основным принципам разумной достаточности работы с данными, можно, не прибегая к дорогостоящим решениям, даже в небольших объемах информации выявлять закономерности, инициировать процессы по оптимизации и следить за их влиянием на эффективность. Доступность данных позволяет сотрудникам, обладающим большим опытом и соответствующей экспертизой, оперативно генерировать гипотезы, а за счет обогащенных и взаимосвязанных данных осуществлять их проверку и оценивать влияние предлагаемых решений не только на конкретный процесс, но и на всю цепочку поставок. При этом не требуются ни машинное обучение, ни искусственные нейронные сети, ни прочие модные сегодня технологии. Такой подход доступен компаниям любого размера с любым уровнем развития ИТ-инфраструктуры и бюджетом.

Георгий Иващенко — ведущий бизнес-аналитик, компания Ventra.

Другие новости

Новости

Пресс-центр

Анна Ларионова

Анна Ларионова

Информация для СМИ:

Дорогие коллеги, 
Ventra открыта к диалогу и готова делиться своей экспертизой и опытом. Мы с радостью поделимся последними новостями и оперативно предоставим мнения первых лиц компании. 



Контакты для СМИ:
marketing@ventra.ru