Формирование полноценной вертикали обработки данных, охватывающей весь цикл — от самого нижнего уровня сбора первичных сведений до верхнего уровня анализа и принятия решений, даёт возможность работать непосредственно с исходными данными, минимизируя риск возникновения ошибок восприятия, обусловленных анализом уже переработанной, вторичной информации.
Здесь же становится важным организация процессов и функционал BPM в RPA.
В этом и есть смысл роботизации – убрать человеческий фактор, где это возможно.
Почему важна вертикальная структура обработки данных
Современный мир характеризуется огромным объемом генерируемых данных, причем эти данные поступают из множества разнородных источников: датчики IoT, транзакционные базы данных, социальные медиа, производственные линии и многое другое. Традиционный подход, при котором сначала собирается агрегированная статистика, а потом делается анализ, нередко ведет к ошибкам, вызванным потерей деталей или искажением контекста.
Именно поэтому возникла концепция «вертикальной структуры обработки данных»: начиная с уровня сбора сырых данных («низ») и заканчивая уровнем аналитики и принятия решений («верх»), создается целостная цепочка передачи и трансформации данных. Эта стратегия позволяет сохранить максимальную точность и глубину понимания исходных данных.
Пример работы с данными
Много людей предоставило личные первичные данные о своём доходе, жилищных условиях и социальных субсидиях. Первичные данные являются оригинальными, исходными сведениями, зафиксированными самими респондентами.
Затем данные были переданы специалистам для дальнейшей обработки и анализа. Специалисты провели предварительный расчёт и сделали определённые обобщения. Однако в процессе обработки возникли ошибки: одна категория доходов была объединена с другой категорией, появились пропуски или несоответствия в расчётах. Таким образом, сформировались вторичные данные, содержащие частичную неточность.
Последующая аналитика, проведённая на основе этих некорректных вторичных данных, привела к ошибочным выводам. Например, власти приняли решение увеличить финансирование социальной программы, полагаясь на неточные статистические отчёты. Тем самым выделенные средства распределились неравномерно или оказались недостаточными, вызвав недовольство населения.
Лучшим решением в данном сценарии было бы провести подробный анализ сразу на уровне первичных данных. Работая с каждым отдельным случаем, можно исключить накопление ошибок и сформировать точные рекомендации для государственных органов, способствующие справедливому распределению помощи и адекватному решению социальных проблем.
Пример из социологии
Допустим, социологическое исследование проводится среди жителей крупного города с целью изучения отношения населения к городской транспортной реформе. Опрос состоит из анкетирования большого числа респондентов, где участники самостоятельно указывают своё мнение («первичные данные»).
Далее специалисты обрабатывают полученные анкеты, сводят данные в таблицы и делают промежуточные выводы («вторичные данные»). Предположим, что в ходе анализа была допущена ошибка: группа исследователей случайно объединила мнения двух сильно различающихся районов, несмотря на разницу в доходах и образе жизни местных жителей. Итоговая картина оказалась смазана, а вывод гласил: «Население позитивно относится к транспортному проекту».
Тем временем, дальнейшее изучение самих анкет показывает, что жители района А резко негативно относятся к изменению маршрутов автобусов, тогда как жители района Б воспринимают перемены положительно. Если исследователи изначально основывались исключительно на вторичном результате («средний положительный отклик»), последующие управленческие решения были бы неправильными, приводящими к недовольству одной из групп горожан.
Следовательно, работа с первичным материалом позволила бы своевременно выявить ошибку и скорректировать выводы, предотвратив негативный эффект от неправильно интерпретированного результата исследования.
Что происходит у вендоров RPA
BPM в ROBIN — это отдельная сущность, которая объединяет роботов, сотрудников, экранные формы, ИИ-модели, OCR и прочие компоненты, тем самым и реализуя парадигму гиперавтоматизации.
Процессы в PIX – это надстройка над роботами, для более сложных алгоритмов – критериям гиперавтоматизации в данном случае они не соответствуют. Тем не менее, в PIX называют построение вертикали обработки данных классическим сценарием.
Puzzle RPA выступает за построение в компании сквозных цепочек автоматизации — от элементарных задач на уровне отдельного сотрудника или процесса до комплексных решений для компании в целом.







